본문 바로가기

Adversarial example3

[NIA] 인공지능 악용에 따른 위협과 대응 방안 [구글, 적대적 스티커(Adversarial Patch)] *** 출처: [NIA] 인공지능 악용에 따른 위협과 대응 방안 *** 문서: I. 개요 ■ 인공지능 워크숍: 악의적 행위자에 따른 위험(Bad Actor Risks in Artificial Intelligence Workshop)(‘17.02.19~20) - 기존 인공지능의 안전성을 다룬 보고서는 인공지능으로 인해 의도치 않게 발생하는 피해에 초점을 맞춘 반면 보고서는 개인, 또는 조직이 다른 개인, 단체의 보안을 약화시키기 위해 고의적으로 인공지능을 사용하여 발생하는 위협만을 고려 II. 본론 1. 보안 환경의 변화를 촉발시키는 인공지능 ■ 보안에 영향을 미치는 인공지능의 6가지 속성 ① 이중성: 인공지능은 특정 용도로 사용되도록 정해지지 않.. 2018. 8. 28.
[IITP 정보통신기술진흥센터] 구글 리서치 그룹 인공지능 알고리즘 오작동 유발 스티커 - Adversarial Patch 발표 [인공지능 알고리즘 오작동 유발 스티커 - Adversarial Patch] [Adversarial Patch로 인한 인공지능 사물인식 오작동 사례] [Adversarial Patch로 인한 스마트폰 앱의 오작동 사례] *** 출처: [IITP 정보통신기술진흥센터] 구글 리서치 그룹 인공지능 알고리즘 오작동 유발 스티커 - Adversarial Patch 발표 *** 문서: ■ 구글 리서치 그룹, 이미지 인식 인공지능(AI) 알고리즘을 오작동 시킬 수 있는 스티커 발표 - 애드버세리얼 패치(Adversarial Patch, 적대적 스티커)라 불리우는 원형 스티커를 사물 옆에 붙여 두면 이미지 인식 알고리즘이 제대로 작동하지 않게 된다고 함 - 이 스티커를 바나나 옆에 붙이면 바나나를 토스터로 잘못 인식하.. 2018. 1. 31.
[iitp] 딥러닝에도 보안문제, 인공지능을 속이는 수법에 주의할 필요 - 박종훈 *** 문서: ■ 딥러닝은 데이터로부터 규칙을 도출하기 위해 신경망을 훈련시키는 과정을 거치는데, 이때 사용되는 데이터에 잘못된 것을 섞거나 데이터에 일종의 노이즈를 추가함으로써 AI에 오류를 발생시킬 수 있다는 것임 ■ AI에 오류를 발생(AI를 공격하는)시키는 대표적인 기법 ○ 적대적 사례(Adversarial Example) 기법 - 이미지 인식 모델에 인식 시키는 데이터(example)에 일종의 '노이즈'를 추가함으로써 이미지의 피사체를 오인시키는 공격 방법임 - 노이즈가 가해진 이미지를 "적대적 사례"라고 부름 - 악용하기가 용이하고 일상 생활에 미치는 영향이 클 수 있어 특별한 주의가 필요함 - 가령 자율운전 차량에 교통 표지판을 잘못 인식하게 하는 공격이 가능함 Explaining and h.. 2017. 11. 30.