인공지능 해킹 방어 기법1 [iitp] 딥러닝에도 보안문제, 인공지능을 속이는 수법에 주의할 필요 - 박종훈 *** 문서: ■ 딥러닝은 데이터로부터 규칙을 도출하기 위해 신경망을 훈련시키는 과정을 거치는데, 이때 사용되는 데이터에 잘못된 것을 섞거나 데이터에 일종의 노이즈를 추가함으로써 AI에 오류를 발생시킬 수 있다는 것임 ■ AI에 오류를 발생(AI를 공격하는)시키는 대표적인 기법 ○ 적대적 사례(Adversarial Example) 기법 - 이미지 인식 모델에 인식 시키는 데이터(example)에 일종의 '노이즈'를 추가함으로써 이미지의 피사체를 오인시키는 공격 방법임 - 노이즈가 가해진 이미지를 "적대적 사례"라고 부름 - 악용하기가 용이하고 일상 생활에 미치는 영향이 클 수 있어 특별한 주의가 필요함 - 가령 자율운전 차량에 교통 표지판을 잘못 인식하게 하는 공격이 가능함 Explaining and h.. 2017. 11. 30. 이전 1 다음