본문 바로가기
IT 와 Social 이야기

[IITP] EU 인공지능(AI) 백서 주요 내용 및 시사점

by manga0713 2020. 7. 29.


[ EU 인공지능 우수성과 신뢰도 제고 방안 ]





*** 출처: [IITP] EU 인공지능(AI) 백서 주요 내용 및 시사점 - 김지윤 한국인터넷진흥원 주임연구원, 윤재석 한국인터넷진흥원 팀장

*** 문서:

file1516838806431372018-195702.pdfcommission-white-paper-artificial-intelligence-feb2020_en.pdfExcellence_and_trust_in_AI_en.pdf.pdf






II. EU 인공지능 백서 주요 내용



EC는 회원국의 일반 대중과 AI 관련 이해관계자, 유럽의회 등의 의견 수렴을 통해 EU 내 AI 기술 도입과 발전 방향을 설정하기 위한 기반으로 “우수성의 생태계(Ecosystem of Excellence)”와 “신뢰성의 생태계(Ecosystem of Trust)”를 제시했다.


“우수성의 생태계” 구축 부분에서는 AI 활성화를 위한 기반 마련을 강조하며 EU 회원국 간 그리고 민·관 협력체계를 촉진하는 정책과 전략을 제시한다. “신뢰성의 생태계” 구축 부분에서는 AI 도입과 활성화에 있어 대중의 신뢰를 얻는 것을 목적으로 윤리적 측면을 고려한 AI 시스템 설계 방식과 전략을 제시한다.




1. 우수성의 생태계


  • 우수성의 생태계(Ecosystem of Excellence) 구축을 위한 EU 집행위 주요 과제





① 회원국과 협력



- EU 내 AI 개발과 이용 장려를 위해 회원국과 공동으로 조정 계획(Coordinated Plan)을 제시했다. 이 계획을 통해, AI 관련 연구·투자·시장 활성화, 인재 활용 등의 분야에서 EU 내 70여 개 회원국과 집행위 사이의 효과적 협력을 위한 공동 조치를 제안하고, 2027년까지 정기적 모니터링과 점검을 통해 조정 계획을 확대할 예정이다.

    • Horizon Europe: EU 내 전문 인력 양성과 최첨단 연구 투자를 통한 과학 및 기술 신장 연구개발 프로그램
    • Digital Europe Programme: EU 내 슈퍼컴퓨터, AI, 사이버 보안 등 디지털 기술을 양성하는 계획



② 연구 및 혁신 조직에 역량 집중



- EU 각지에 퍼져 있는 AI 연구센터 사이의 협력체계를 형성하고 최고의 연구 인력을 확보하는 것을 세부 목표 중 하나로 내세웠다. 이는 유럽이 전통적으로 강세를 보이던 제조업 관련 AI 기술 강화와 더불어 상대적으로 약세를 보이는 소비자 관련 AI 애플리케이션 개발에 투자하여 세계를 선도하는 AI 기술력을 확보하겠다는 것



- 연구센터 간 네트워크 강화뿐만 아니라 새로운 연구센터 를 설립하여 적어도 회원국 당 하나의 주력 연구센터를 보유하고 네트워크를 확대하여 AI 관련 연구의 시너지 창출에 주력할 예정




③ 기술 역량 강화



- 유럽의 AI 관련 역량 강화와 모든 EU 국민이 디지털 혁신의 혜택을 받을 수 있도록 EC는 “기술 역량 강화 아젠다(Skills Agenda)”를 강화할 방침




④ 중소기업 육성



“디지털 혁신 허브(Digital Innovation Hub)” 를 강화하여 중소기업 간 협력을 촉진하고, 공동 투자 기금인 InvestEU를 통해 이를 지원 할 예정


회원국 당 적어도 하나 이상의 디지털 혁신 허브를 구축하고 이를 바탕으로 회원국마다 AI 관련 전문성을 강화할 것을 목표로 함




⑤ 민간 파트너십 형성




⑥ 공공부문 AI 기술 우선 도입을 통한 도입 촉진



- 공공부문에 AI 기술을 우선 도입하여 관련 제품 및 서비스의 확산을 촉진하고 EU 내 모든 국민이 디지털 혁신을 통한 혜택을 누릴 수 있는 기반을 마련할 계획




⑦ 데이터 접근 및 연산 시스템 안정성 강화



- (데이터의 보관과 생성 장소가 사용자 중심으로 이동해가므로 해당 부문에 대한 투자가) 안전하고 효율적인 데이터 수집과 관리 관행 형성에 도움을 주고 데이터의 재사용성과 정보주체 신뢰를 획득하여 AI 도입을 촉진할 것으로 기대




⑧ 국제기구를 통한 논의와 협력



- 데이터 활용을 포함하는 EU 외 국가와의 경제 활동에서 데이터 흐름을 방해할 가능성이 있는 과도한 규제에 대응하기 위해 세계무역기구(WTO), OECD, UNESCO와 같은 국제기구와 협력하여 정책적 대안을 논의할 예정




2. 신뢰성의 생태계


  • 데이터 관련 기술의 안전성 강화와 더불어 문제 예방과 피해 구제 등 AI 기술에 대한 정보주체의 신뢰를 높여 AI 도입을 촉진하겠다는 목적


① 문제 정의


- AI 기술이 적용된 제품 및 서비스로 인해 육체적, 경제적 피해와 같은 물적 손실 뿐만 아니라 인종·성차별 등 편향된 AI 훈련 데이터로 인한 정보주체의 기본 권리 침해로 위험의 정의를 세분화하여 피해 발생 시의 책임 소재 명확화와 정보주체를 위한 안전장치 (safeguard)를 마련할 계획



② AI 관련 법제 프레임워크 조정


- 정보주체 기본 권리를 침해하는 인종·성차별을 방지하고 데이터 보호 규칙의 적 용 범위를 AI까지 확대하여 관련 법제를 정비하는 것을 세부 과제로 설정

- AI 관련 문제 예방을 위한 ‘위험’의 정의를 확대할 예정

- EC는 다음과 같은 상황에서 발생하는 위험과 문제 해결을 위해 법제 프레임워크를 개 선할 수 있다는 견해

  1. AI 적용 제품뿐만 아니라 서비스로 규제 대상 확대가 필요한 경우
  2. AI 적용 제품 및 기술이 새로운 법적 문제를 일으켜 기존 법률 조정이 필요한 경우
  3. 기존 제품 출시 후 AI 기술을 도입하여 기존 공급망 체계의 이해관계자 간 법적 책임 소재가 불분명해질 경우


③ 미래 AI 관련 EU 법제 범위 규정


- 미래 AI 관련 규제 범위 결정을 위해 AI의 정의와 그 구성요소인 ‘데이터’ 및 ‘알고리즘’ 개념의 명확화를 우선시

- 급변하는 환경에 맞춰 발전하는 정책이 될 수 있도록 유연한 AI 개념 정의를 강조

- 합리적인 규제 개입을 위해서 “위험 기반 접근 방식(Risk-based approach)”을 채택하여 ‘고위험(High-risk)’으로 간주하는 AI 시스템에 대한 규제에 차등
    • 고위험 AI 애플리케이션 분류




④ 요구사항 유형 구분



- 윤리 가이드라인(Ethics Guidelines for Trustworthy Artificial Intelligence)을 고려하여 추후 AI 관련 법규에 포함될 수 있는 여러 요구사항 유형을 제시


    • 편향되지 않고, 위험 상황에 대한 광범위한 시나리오를 포함한 AI 훈련용 데이터
    • AI 시스템 활용 데이터 및 알고리즘 공개와 데이터의 안전한 기록과 보관
    • AI 시스템의 전체 수명주기를 고려한 위험 예방 설계 및 합리적 대처 방안 마련
    • AI 제품·서비스 전체 수명주기에 개입하는 인적 감독을 통한 이중 안전장치 마련
    • 원격 생체인식 기술 등에 대한 생체 데이터 처리 원칙 준수 및 정교화


⑤ 법적 요건 대상 명확화


- 두 가지 큰 틀을 제시

    1. 법적 책임 대상에 있어 EU는 AI 시스템 전체 수명주기에 관여하는 개발자, 생산자, 배포자, 최종 사용자 등 각 수명주기에 따른 관여도를 고려한 책임의 차등 배분을 제시
    2. 법적 책임 대상의 지리적 요건과 관련하여 GDPR과 같이 EU 국민을 대상으로 AI 제품이나 서비스를 제공하는 모든 조직과 기업을 법적 책임 대상으로 함



⑥ 법규 준수와 집행



- AI 제품 및 서비스의 잠재적 예방을 위해 고위험 AI 시스템으로 분류된 제품 및 서비스에 대한 사전 적합성 검사(Prior Conformity Assessment) 시행을 요구


- AI 시스템 전체 수명주기를 고려한 반복적이고 다면적 검사를 요구


부적합 판정 시, EU가 주도하여 AI 시스템을 재교육하며, 중소기업 부담을 덜기 위한 온라인 검사 도구 제공 등의 방안을 마련하여 사전 적합성 검사 시행을 지원할 예정




⑦ 위험성에 대한 자발적 라벨링 체계



고위험으로 분류되지 않는 AI 시스템에 대한 규제책을 마련하고자 EC는 자발적 라벨링 체계의 도입을 제안


- 요구 사항을 자발적으로 준수하는 경우, EC가 검토 후 시스템 안정성을 인증하는 라벨을 부여하는 인증 체계


- 인증체계 가입은 의무가 아니나 준수할 경우 법적 의무 요건이 적용되며 법의 사각지대에 있는 AI 시스템까지 법 적용 대상으로 포함하게 됨




⑧ 거버넌스 체계의 정비



- 각 회원국의 관계 당국 간 협력체계를 강화하기 위해 유럽 차원의 거버넌스 구조 를 개편하고, 정보 교환 및 모범 사례 공유, 트렌드 분석, 공동 법제 마련을 위한 의견 조정, 전문 지식의 공유 등을 목표




III. 주요 시사점



시스템 개발자 등 제공자에 대한 법적·윤리적 규범 마련과 준수에 집중한다는 점


“사전 적합성 검사(Prior Conformity Assessment)”


“자발적 라벨링 체계(Voluntary Labeling Scheme)”




1. 사전 적합성 검사



- AI 적용 제품 및 서비스의 위험도 분류 기준에 따라 ‘고위험’ AI 시스템 적용 제품 및 서비스에 적용


- EU는 AI 기술 관련 위험을 “훈련 데이터 편향성으로 인한 기본권 침해 위험”“제도적 안전장치 부재로 인한 물적 손실의 위험”으로 정의


    • 훈련 데이터 편향성으로 인한 기본권 침해 위험: 인종차별이나 성차별과 같은 정보주체 기본권에 대한 위험을 의미
    • 제도적 안전장 치 부재로 인한 물적 손실 위험: AI 기술 적용 제품 및 서비스 사용 시 발생 가능한 신체·재산상의 피해 위험을 의미
- 시스템 全 생애주기를 다면적이고 반복적 으로 평가

- 생애주기 상 이해관계자의 관여도를 평가하여 관여 수준에 따라 법적 책임 을 차등 부여

- 사전 적합성 검사(Prior Conformity Assessment) 요구사항 유형








2. 자발적 라벨링 체계


‘고위험’으로 분류되지 않는 AI 제품 및 서비스 제공자의 자율 규제를 촉진하고 이를 법적으로 관리하기 위한 체계

- EU 권역 내 혹은 거주민을 대상 으로 하는 사업자가 전술한 사전 적합성 검사 요구사항의 준수 여부를 자발적으로 신고하면, EC가 이를 검토하여 시스템 안정성을 인증하는 라벨을 부여하는 방식

- 2021년까지 피드백을 바탕으로 자발적 라벨링 체계의 세부 요건을 확립하여 AI 관련 사업자 관리의 효율성을 제고하고자 함



IV. 결론


- 한-EU AI 활성화 전략 비교