`이루다` 논란 커지자 … 방통위, AI윤리 법체계 손본다

민간 모범사례 적극 발굴 통해
이용자 보호 실행지침 구체화
책임소재·구제절차 포괄할 듯

  • 프린트
  • 페이스북
  • 트위터
  • 카카오스토리


AI(인공지능) 챗봇 이루다를 둘러싼 윤리논란이 증폭되면서, 방송통신위원회가 AI 이용자 보호를 위한 구체적 실행지침을 마련하고, 책임소재, 권리구제 절차를 포괄하는 등 법체계 정비에 나선다.

방통위는 이루다 사태를 계기로, 이용자와 사업자 대상 교육·컨설팅을 지원하고 AI윤리규범 등을 구체화해 관련 제도개선을 추진할 방침이라고 14일 밝혔다. 사람중심의 AI서비스가 제공되고, AI서비스가 활용되는 과정에서 이용자 보호원칙이 지켜질 수 있도록 하겠다는 취지다.

최근 스타트업 스캐터랩의 AI 챗봇 '이루다'를 둘러싼 논란이 확산되면서, AI 윤리문제가 도마에 오르고 있다. 이루다가 성차별, 장애인 혐오 등을 학습한 것으로 보이면서, AI 서비스에도 엄격한 윤리규범이 필요하다는 목소리가 높아지고 있다. 뿐만 아니라 개인 간 카카오톡 대화 내용 등 개인정보가 수집·유출됐다는 논란이 불거지면서, 개인정보보호위원회, KISA(한국인터넷진흥원) 등 관계기관에서도 조사작업이 진행중에 있다.

스캐터랩의 또 다른 앱인 연애의 과학은 연인과 나눈 카카오톡 대화를 입력하면 애정도 수치를 보여주는 서비스를 제공해 왔다.

이루다의 혐오·차별적인 표현뿐만 아니라, 역으로 AI 서비스 이루다가 사용자들로부터 성희롱의 대상이 되고 있다는 지적도 이어지고 있다. 방통위는 이처럼 이루다가 사회적으로 큰 논란을 일으킨 데 대해 "사업자와 이용자, 정부 등 지능정보사회 구성원 모두가 AI 윤리의 중요성을 인지하고, 각자가 실천할 수 있는 방안을 모색해야 한다"고 지적했다. 이를 개선하기 위해, 방통위는 AI서비스에서 이용자 보호를 가장 큰 원칙으로 삼고 이용자 교육, 사업자 컨설팅, 제도개선 등을 추진해 나간다는 방침이다.

방통위는 특히 AI 행위를 포괄하는 등 기존 법체계 정비도 필요하다는 입장이다. 당장, AI서비스의 책임소재 및 권리구제 절차 등이 포괄될 수 있도록 기존의 법체계를 정비해 나간다는 방침이다. 이를 위해, 방통위는 지난해 1월 KISDI(정보통신정책연구원) 내에 지능정보사회 정책센터를 설립하고, 지난해 9월부터 센터 내에 법제 연구반을 구성하여 운영하고 있다.

또한 방통위는 AI서비스의 이용자 보호를 위해 규범 및 제도를 구체화해 나갈 방침이다. 방통위는 앞서 지난 2019년에 '차별금지, 인간존엄성 보호' 등의 내용을 포함한 '이용자 중심의 지능정보사회를 위한 원칙'을 발표한 바 있다. 해당 원칙이 선언적 규정이라면, 올해부터는 이를 실천하기 위한 구체적 사례와 방법 등을 사업자 등과 공유한다는 것이다.

특히, 사업자의 규제부담 및 AI서비스의 혁신 저해를 최소화하기 위해 민간에서 현재 실천하고 있는 모범사례를 적극적으로 발굴하여 이를 바탕으로 실행지침을 마련할 계획이다.

이외에도 방통위는 올해부터 이용자에게 AI서비스의 비판적 이해 및 주체적 활용에 대한 교육을 실시한다.

교육 내용으로는 이용자가 AI서비스에 활용된 알고리즘의 편향성을 파악하고, 그에 따른 문제를 최소화하여 서비스를 이용할 수 있는 방안 등을 담을 계획이다. 2022년부터는 신규예산을 확보하여 AI 윤리교육 지원대상을 이용자에서 사업자로까지 확대하고, '스타트업' 등을 대상으로 서비스 설계시 AI 역기능 등 위험관리 컨설팅을 지원하는 사업을 추진할 예정이다.



반면, 국내 빅테크 기업의 경우 카카오에서 2018년에 AI 윤리 가이드라인을 발표했고, 삼성전자도 2019년 AI 윤리 핵심원칙을 발표하는 등 AI 규범 확립에 적극적으로 나서고 있다. SK텔레콤의 경우도 지난해 말 대학에서 'SKT AI커리큘럼'을 수강중인 학생들을 대상, 릴레이 강연 주제 중 하나로 AI분야의 화두인 윤리 문제와 SK텔레콤의 실천 방안을 소개하는 등 일찍부터 AI 윤리규범을 구체화하는 데 힘을 쏟아왔다. 최근 AI 윤리기준 법제화를 둘러싼 사회적 분위기를 감안했을 때, 빅테크 기업도 AI 윤리 제정 발표를 서두를 것으로 보인다.

한상혁 방통위 위원장은 "AI서비스는 더 많은 부가가치를 창출하고, 생활의 편의를 더해줄 것이지만, 올바른 윤리와 규범이 없는 AI서비스는 이용자 차별과 사회 갈등을 초래할 수 있다"며 "AI기술의 혜택은 골고루 누리되, 부작용은 최소화할 수 있도록 사람 중심의 AI를 위한 정책을 촘촘히 추진해 나갈 것이다"라고 밝혔다.

김은지기자 kej@dt.co.kr

`이루다` 논란 커지자 … 방통위, AI윤리 법체계 손본다




[저작권자 ⓒ디지털타임스 무단 전재-재배포 금지]