본문 바로가기

인공지능 보안3

[KISDI] 인공지능(AI)과 프라이버시의 역설 - AI 음성비서를 중심으로 *** 출처 : [KISDI] 인공지능(AI)과 프라이버시의 역설 - AI 음성비서를 중심으로 - 심홍진 연구위원 *** 문서 : 2. 프라이버시, 인공지능의 딜레마 ■ 인공지능에 기인한 경제, 사회적 풍요 이면에 존재하는 프라이버시 이슈 - 머신러닝 등 인공지능의 이점에도 불구, 머신러닝 기술이 수집하는 대량의 데이터로 인해 최종 이용자의 프라이버시 침해 가능성 증대 - 디바이스에 탑재된 인공지능을 통해 제조사가 디바이스 이용자의 데이터에 기술적 접근이 가능해지면서 프라이버시 영역의 잠재적 붕괴 시사 - 인공지능 디바이스 이용자가 보다 향상된 이용경험과 니즈를 요구할수록 이용자의 요구를 충족시키기 위한 제조사의 미필적 개인정보 이용 가능 - 최근 AI 음성비서(assistant 또는 speaker)의 .. 2019. 1. 15.
[NIA] 인공지능 악용에 따른 위협과 대응 방안 [구글, 적대적 스티커(Adversarial Patch)] *** 출처: [NIA] 인공지능 악용에 따른 위협과 대응 방안 *** 문서: I. 개요 ■ 인공지능 워크숍: 악의적 행위자에 따른 위험(Bad Actor Risks in Artificial Intelligence Workshop)(‘17.02.19~20) - 기존 인공지능의 안전성을 다룬 보고서는 인공지능으로 인해 의도치 않게 발생하는 피해에 초점을 맞춘 반면 보고서는 개인, 또는 조직이 다른 개인, 단체의 보안을 약화시키기 위해 고의적으로 인공지능을 사용하여 발생하는 위협만을 고려 II. 본론 1. 보안 환경의 변화를 촉발시키는 인공지능 ■ 보안에 영향을 미치는 인공지능의 6가지 속성 ① 이중성: 인공지능은 특정 용도로 사용되도록 정해지지 않.. 2018. 8. 28.
[iitp] 딥러닝에도 보안문제, 인공지능을 속이는 수법에 주의할 필요 - 박종훈 *** 문서: ■ 딥러닝은 데이터로부터 규칙을 도출하기 위해 신경망을 훈련시키는 과정을 거치는데, 이때 사용되는 데이터에 잘못된 것을 섞거나 데이터에 일종의 노이즈를 추가함으로써 AI에 오류를 발생시킬 수 있다는 것임 ■ AI에 오류를 발생(AI를 공격하는)시키는 대표적인 기법 ○ 적대적 사례(Adversarial Example) 기법 - 이미지 인식 모델에 인식 시키는 데이터(example)에 일종의 '노이즈'를 추가함으로써 이미지의 피사체를 오인시키는 공격 방법임 - 노이즈가 가해진 이미지를 "적대적 사례"라고 부름 - 악용하기가 용이하고 일상 생활에 미치는 영향이 클 수 있어 특별한 주의가 필요함 - 가령 자율운전 차량에 교통 표지판을 잘못 인식하게 하는 공격이 가능함 Explaining and h.. 2017. 11. 30.