과방위 김상희 의원 대표발의 현재까지 관련 법령·규칙없어 "비윤리적 AI서비스 개선 기대"
김상희 더불어민주당 의원. 의원실 제공
AI(인공지능)의 비윤리적인 학습과 활용을 막고 급격한 기술 발전에 따른 부작용을 방지하는 내용의 일명 '이루다 방지법'이 국회에서 발의됐다.
17일 국회 과학기술정보방송통신위원회 소속 김상희 더불어민주당 의원(국회 부의장·사진)은 '지능정보사회윤리준칙'을 마련해 지능정보기술 개발·공급자, 이용자 모두가 준수하게 하는 '지능정보화기본법 개정안'을 대표발의했다.
개정안의 주요 내용은 과학기술정보통신부 등 정부가 '지능정보사회윤리준칙'을 제정하고 AI 윤리적 검증에 필요한 인권 보장, 프라이버시 보호, 다양성 존중, 공공성과 책임성, 안전성 등의 내용을 담아 보급·확산시키도록 하는 것이다.
최근 AI 기술이 산업 전반에서 활용되고 있지만 구체적이고 합리적인 AI 개발의 가이드라인은 사실상 미비한 상태였다. 이런 상황에서 올해 초 발생한 AI 챗봇 '이루다' 사태는 AI 개발 가이드라인의 필요성을 확산시키는 계기가 됐다.
이루다는 무분별한 데이터 학습으로 여성과 소수자 차별·혐오적 메시지 출력, 개인정보 활용 문제 등으로 논란을 일으키며 서비스를 중단했다. 특히 자율주행과 빅데이터가 산업의 주류로 떠오를수록 AI의 역할이 커지는 만큼 이를 적절히 제어할 수 있는 가이드라인이 필요하다는 목소리가 일었다.
과기정통부는 문제 해결을 위해 지난해 12월 인간성을 위한 AI라는 원칙 하에 'AI 윤리기준'을 발표했다. 하지만 법령이나 규칙이 아닌 도덕적 규범에 불과해 실제 AI 개발에 적용할 수 있는 구체적이고 실효적인 가이드가 필요하다는 게 김 의원 측의 설명이다. 김 의원은 개정안이 통과될 경우, 성장단계에 있는 AI 기술 발전을 장려하면서도 기존에 법령이나 규칙이 없던 부분을 보완해 비윤리적인 AI로 인한 사회적 부작용을 예방할 수 있을 것으로 기대하고 있다.
김 의원은 "최근 문제가 됐던 이루다 이용자의 85%는 10대인 것으로 나타났다"며 "편향적인 AI는 아동·청소년에게 혐오와 차별 등 악영향을 끼칠 수 있다"고 말했다. 이어 "해외에서는 AI가 차별·혐오적 표현이나 비윤리적인 상황을 연출할 경우 즉각적으로 서비스를 중단하고 있다"며 "개정안이 통과돼 제2의 이루다 사태 방지하고 AI의 윤리 신뢰성을 확보할 수 있길 바란다"고 덧붙였다.