상단메뉴 바로가기 본문 바로가기 본문 하위메뉴 바로가기 하단 바로가기
정보마당

AI차별 혐오표현 안돼 … 이루다방지법 발의 관리자2021-06-18

관리자   /   2021-06-18

AI(인공지능)의 비윤리적인 학습과 활용을 막고 급격한 기술 발전에 따른 부작용을 방지하는 내용의 일명 '이루다 방지법'이 국회에서 발의됐다.

17일 국회 과학기술정보방송통신위원회 소속 김상희 더불어민주당 의원(국회 부의장·사진)은 '지능정보사회윤리준칙'을 마련해 지능정보기술 개발·공급자, 이용자 모두가 준수하게 하는 '지능정보화기본법 개정안'을 대표발의했다.

개정안의 주요 내용은 과학기술정보통신부 등 정부가 '지능정보사회윤리준칙'을 제정하고 AI 윤리적 검증에 필요한 인권 보장, 프라이버시 보호, 다양성 존중, 공공성과 책임성, 안전성 등의 내용을 담아 보급·확산시키도록 하는 것이다.

최근 AI 기술이 산업 전반에서 활용되고 있지만 구체적이고 합리적인 AI 개발의 가이드라인은 사실상 미비한 상태였다. 이런 상황에서 올해 초 발생한 AI 챗봇 '이루다' 사태는 AI 개발 가이드라인의 필요성을 확산시키는 계기가 됐다.

이루다는 무분별한 데이터 학습으로 여성과 소수자 차별·혐오적 메시지 출력, 개인정보 활용 문제 등으로 논란을 일으키며 서비스를 중단했다. 특히 자율주행과 빅데이터가 산업의 주류로 떠오를수록 AI의 역할이 커지는 만큼 이를 적절히 제어할 수 있는 가이드라인이 필요하다는 목소리가 일었다.

 

 

 

 

(중략)

 

 

 

출처 디지털타임스 2021.06.17

http://www.dt.co.kr/contents.html?article_no=2021061802101231820001&ref=naver