디지털타임스

 


[`AI역풍` 전세계 규제 잰걸음] "AI는 완벽치 않아… 윤리 정립이 최우선 과제"

프린트 페이스북 트위터 카카오스토리
김명주 서울여대 교수 인터뷰
공정·안전·신뢰성 등이 이슈
국내서도 윤리헌장 이미 마련
인공지능(AI) 윤리 분야 전문가로 꼽히는 김명주 (사진) 서울여자대학교 교수(정보보호학)는 18일 "AI는 사람이 축적한 자료에 대한 학습을 기반으로 하는 까닭에 공정성과 신뢰성, 안전성 등의 문제를 내포하고 있다"며 "AI의 역습을 막으려면 AI 윤리의 정립이 시급하다"고 밝혔다. 최근 'AI는 양심이 없다' 라는 책을 내놓기도 한 김 교수는 서울대에서 컴퓨터공학 학·석·박사를 취득했으며, 1995년부터 서울지방검찰청 특수부에서 컴퓨터범죄 사건에 대한 수사 자문을 맡아왔다. 법무연수원에서 검사와 수사관을 대상으로 컴퓨터범죄 수사 기법도 가르쳤다. 2001년 서울여대에 정보보호학과를 신설하고, 2014년 국내 최초로 교육부 지정 정보보호영재교육원도 설립했다. 2018년 국내 최초로 AI 윤리 가이드라인인 '서울 팩트'(Seoul PACT)를 만든 공로로 근정포장을 받기도 했다.

- 미국 마이크로소프트 소속 과학자들이 최근 150쪽 분량의 리포트에서 AI가 사람처럼 추론하는 범용인공지능(AGI·Artificial General Intelligence) 경지에 접근했다고 주장했다. AGI를 구현하면 AI가 인간의 능력을 뛰어넘는 '특이점'에 도달할 수 있다고 하는데 곧 그렇게 될까?

"챗GPT 등 현재의 생성 AI는 인간들이 만들어놓은 자료를 학습하고 종합해 답을 내놓는다. 하지만 아무리 사람처럼 일을 해도 사람이 가진 상식(common sense)이나 메타인지 즉 '내가 무엇을 알고 무엇을 모르는지를 아는 것'은 AI가 지금은 할 수 있는 건 아니다. 또 인간처럼 스스로 학습욕구를 가지면서 모르는 걸 채워가는 건 구현하기 쉽지 않다. AI는 똑똑하지만 사람이 가진 상식이 없다. 그래서 '헛소리'나 '환각현상'이 나오는 것이다. 이는 딥러닝으로도 어쩔수 없는 부분이다. 더구나 자아나 이성, 인간이 왜 그렇게 인식하는지에 대한 이론적 정립도 안된 상태여서 인간을 뛰어넘는 초거대 AI는 아직 얘기할 만한 단계가 아니다. 요즘 '범용' AI라고들 하는데 부적절한 용어다. 범용은 사람처럼 태어나 스스로 지능을 키워갈 경우 쓸 수 있는 단어다. AI와 지능은 다르다."- AI는 기대와 동시에 우려를 낳고 있다. AI의 순기능과 역기능으론 무엇을 꼽을 수 있는가.

"순기능은 지치거나 망각하는 일 없이 사람의 머리쓰는 작업을 대신할 수 있다는 점이다. 100명의 일자리를 AI 하나가 대신할 수 있다는 얘기도 나오는 것처럼 경제적이다. 하지만 AI 채용 면접이나 신용등급 판단처럼 사람 손을 거치지 않고 사람도 이해하지 못하는 것을 판단·결정할 경우 오류를 초래할 가능성이 있다. AI를 만든 개발자들의 편향성 때문이다. 학습기반이다 보니 학습내용이 외부로 노출될 경우 개인정보보호 문제도 발생할 수 있다. AI는 기억과 경험을 대신하는 까닭에 사람과 사람 간 관계가 사람과 AI 간 관계로 대체시키는 문제도 존재한다."

- 역기능을 방지하기 위해 어떤 게 필요하나.


" 무엇보다 개발자들이 이용자들이 신뢰할 수 있도록 AI를 잘 만드는 게 중요하다. 아마존의 경우 지난 2018년 AI를 활용한 채용시스템을 폐기했는데 여성 차별 요소가 들어간 게 문제가 됐다. 또한 개발자·기업가·이용자·공공기관 등 사용자들도 AI의 불완전성과 악용 가능성을 인식, 사회적으로 AI를 잘 활용할 수 있도록 예방적 차원의 'AI 윤리'를 정립하는 게 시급하다."- AI는 무오류가 아니어서 사용자 중심으로 AI 윤리에 대한 본격적 논의가 필요하다고 했는데 AI 윤리에는 어떤 게 담겨야 하나. 그리고 국제적 논의 동향을 알려달라.
"AI를 둘러싼 이슈는 크게 공정성, 개인정보 보호, 안전성과 신뢰성 등 세가지다. 개별 국가, OECD(경제협력개발기구) 유네스코 등 국제단체, 전기·전자·전산 분야 국제기구 및 학회인 전기전자공학자협회(IEEE) 같은 전문 개발자그룹 등 세 방면에서 논의가 이뤄지고 있다. 우리나라에선 'Seoul PACT'로 불리는 지능정보사회 윤리 가이드라인에 이어 2018년 '지능정보사회 윤리헌장'이 마련됐다. 공공성, 책무성, 통제성, 투명성 등 4대 공통원칙을 기반으로 개발자·공급자·이용자들이 지켜야 할 윤리조항을 담았다. 지난 2월엔 국회 과학기술정보방송통신위원회에서 '인공지능산업 육성 및 신뢰 기반 조성 등에 관한 법률안'이 통과됐다. AI 산업을 육성하는 한편으로 신뢰성을 높이는 방안들이 담겼는데 예를 들어 위험한 AI의 경우 검증·인증을 받아야 사용가능하다는 조항들이 포함됐다." 법이 제정돼 시행되더라도 관련기업이나 개인들이 준비할 수 있도록 유예기간을 두어야 한다. AI 규제도 필요하지만 최소한의 수준에서 자율적 규제가 바람직하다."

강현철기자 hckang@dt.co.kr

[`AI역풍` 전세계 규제 잰걸음] "AI는 완벽치 않아… 윤리 정립이 최우선 과제"
김명주 서울여자대학교 교수(정보보호학).






[ 저작권자 ⓒ디지털타임스, 무단 전재 및 재배포 금지 ]