본문 바로가기

적대적 사례2

[NIA] 인공지능 악용에 따른 위협과 대응 방안 [구글, 적대적 스티커(Adversarial Patch)] *** 출처: [NIA] 인공지능 악용에 따른 위협과 대응 방안 *** 문서: I. 개요 ■ 인공지능 워크숍: 악의적 행위자에 따른 위험(Bad Actor Risks in Artificial Intelligence Workshop)(‘17.02.19~20) - 기존 인공지능의 안전성을 다룬 보고서는 인공지능으로 인해 의도치 않게 발생하는 피해에 초점을 맞춘 반면 보고서는 개인, 또는 조직이 다른 개인, 단체의 보안을 약화시키기 위해 고의적으로 인공지능을 사용하여 발생하는 위협만을 고려 II. 본론 1. 보안 환경의 변화를 촉발시키는 인공지능 ■ 보안에 영향을 미치는 인공지능의 6가지 속성 ① 이중성: 인공지능은 특정 용도로 사용되도록 정해지지 않.. 2018. 8. 28.
[IITP 정보통신기술진흥센터] 구글 리서치 그룹 인공지능 알고리즘 오작동 유발 스티커 - Adversarial Patch 발표 [인공지능 알고리즘 오작동 유발 스티커 - Adversarial Patch] [Adversarial Patch로 인한 인공지능 사물인식 오작동 사례] [Adversarial Patch로 인한 스마트폰 앱의 오작동 사례] *** 출처: [IITP 정보통신기술진흥센터] 구글 리서치 그룹 인공지능 알고리즘 오작동 유발 스티커 - Adversarial Patch 발표 *** 문서: ■ 구글 리서치 그룹, 이미지 인식 인공지능(AI) 알고리즘을 오작동 시킬 수 있는 스티커 발표 - 애드버세리얼 패치(Adversarial Patch, 적대적 스티커)라 불리우는 원형 스티커를 사물 옆에 붙여 두면 이미지 인식 알고리즘이 제대로 작동하지 않게 된다고 함 - 이 스티커를 바나나 옆에 붙이면 바나나를 토스터로 잘못 인식하.. 2018. 1. 31.