디지털타임스

 


거짓에 혼란스러운 AI사회… 그들과 편안한 공존 `숙제`

프린트 페이스북 트위터 카카오스토리
딥페이크로 가짜뉴스 부작용
저작권·챗GPT 악용 등 문제
거짓에 혼란스러운 AI사회… 그들과 편안한 공존 `숙제`
AI가 생성한 이미지

챗GPT가 등장한 지 불과 1년여밖에 지나지 않았음에도 생성형 AI(인공지능)는 IT분야를 넘어 산업과 사회 전반의 화두로 떠올랐다. 전문가들조차 예상치 못한 기술 발전 속도는 여전히 현재진행형이고, 그에 따른 불안과 우려가 확산되며 규제 목소리도 덩달아 높아진다. 최근 AI 관련해 빈도 높게 거론되는 부작용은 딥페이크 등을 통한 가짜뉴스다. 한국 총선과 미국 대선을 포함해 40여개국에 걸쳐 전 세계 인구 약 40%가 투표장을 찾는 '선거의 해'가 AI 열풍이 한창인 가운데 도래했다.



지난달 미국에서는 뉴햄프셔주 프라이머리(대선후보 예비경선)를 하루 앞두고 민주당 당원들에게 투표 거부를 독려하는 바이든 대통령의 가짜 목소리를 담은 전화가 걸려와 문제를 일으켰다. 수갑을 찬 트럼프 전 대통령, 기관총을 쏘는 바이든 대통령 등 AI로 생성된 이미지도 속속 올라와 혼란을 주고 있다.국내도 물론 안전지대가 아니다. 중앙선거관리위원회에 따르면 지난달 29일부터 지난 16일까지 19일간 유권자를 상대로 딥페이크를 이용한 선거 운동 행위로 공직선거법을 위반한 게시물은 129건에 달했다. 이밖에 슬로바키아, 대만, 인도네시아에서도 AI를 악용한 선거운동 사례가 잇따라 적발된 바 있다.

이에 최근 독일 뮌헨안보회의(MSC)에서 오픈AI와 구글 등 AI와 플랫폼 분야 20개 기업들이 '2024년 선거에서 AI의 기만적 사용 방지를 위한 기술 협약'을 맺었다. 유권자를 기만할 위험이 있는 콘텐츠를 감지해 꼬리표를 붙이는 등의 조치를 자발적으로 취하기로 했다. AI로 생성된 콘텐츠를 식별하거나 출처를 인증하는 기술에는 워터마크 표시나 메타데이터 삽입도 포함될 수 있다. 국내에선 방송통신위원회가 플랫폼 기업들에게 이에 상응하는 조치를 당부했다.

다만 테일러 스위프트와 같은 슈퍼스타도 딥페이크 음란 이미지로 피해를 입는 상황이라 기업들의 자율규제로 충분할지는 미지수다. 미국 FCC(연방통신위원회)의 경우 AI로 만든 선거 운동용 자동 녹음 전화를 금지하는 등 대책 마련에 착수했다.




생성형AI로 불거진 또 하나의 대표적 갈등은 저작권 문제다. 지난해 말 뉴욕타임스는 오픈AI와 MS(마이크로소프트)가 자사 콘텐츠를 불법 복제해 무단 사용함으로써 수십억달러 손해를 끼치고 저널리즘 투자에 무임승차했다며 저작권 침해 소송을 제기했다. 오픈AI는 공개적으로 사용 가능한 인터넷 자료로 AI모델을 학습시키는 것은 공정이용(fair use)에 해당한다고 맞서고 있다. 국내에서는 문화체육관광부가 지난해 말 '저작권 강국 실현, 4대 전략'을 발표하면서 '생성형AI 저작권 안내서'를 공개하자 초거대AI추진협의회에서 그 내용을 수정하도록 건의서를 냈다. AI사업자 유의사항 중 '학습데이터에 대해 적법한 권한을 확보할 것을 권고한다'는 문구 삭제를 제언했는데, 방대한 데이터에 대해 이용목적·기간·대가 등을 건건이 협의·계약해야한다고 풀이될 수 있다는 이유다. TDM(텍스트·데이터마이닝)을 허용하는 법 개정 필요성도 제기했다.
이밖에 사이버범죄자들 또한 챗GPT를 악용하고 있는 것으로 확인됐다. 최근 오픈AI와 MS는 북한 정찰총국이 배후에 있는 '킴수키' 조직을 비롯해 중국, 러시아, 이란 등과 연계된 해킹그룹들의 챗GPT 이용 사실을 감지하고 이들의 사이트 접근을 차단했다. 북한 해커들은 안보 전문가 등을 대상으로 스피어피싱 공격을 하기 위해 보낼 악성메일 내용을 보다 설득력 있게 작성하고자 챗GPT를 쓴 것으로 파악됐다. 러시아 군사정보국 연계 해킹그룹의 경우 우크라이나전쟁 관련해 위성통신과 레이더 기술에 대한 연구에 활용했다.마찬가지로 글로벌 보안기업 프루프포인트 조사에 따르면 지난해 기업 대상 피싱메일(BEC) 공격 건수가 전년보다 31% 늘어난 한국을 포함해 일본(35%↑), UAE(29%↑) 등 기존에는 BEC 공격이 문화·언어 장벽으로 비교적 많지 않던 지역들에서 증가하는 모습을 보였다. 생성형AI 등장에 따라 공격자들이 다양한 언어로 그럴듯한 맞춤식 이메일을 발송할 수 있게 된 영향으로 분석됐다.

생성형AI 부상과 함께 지속적으로 지적되는 할루시네이션(환각·거짓) 문제를 비롯해 그 부작용은 다양하게 발견되고 있다. 이와 관련해 전문가들은 AI를 도구로 대할 것을 주문한다. 칼이 부엌에서 쓰이지만 범죄에 쓰이기도 하는 것과 마찬가지로 어떻게 쓰느냐에 달렸다는 뜻이다. 앤드류 응 교수는 나아가 인프라격인 전기에 비유하기도 했다. 글로벌과 보조를 맞춰 안전장치를 마련해 나가야 하는 것은 당연하지만, 그 이상의 섣부른 규제는 장차 산업과 사회 모두에 역효과를 불러올 수도 있다.

최근 OECD(경제협력개발기구)에서 마련한 AI·데이터·프라이버시 익스퍼트그룹에 합류한 최경진 한국인공지능법학회장(가천대 법학 교수)은 "세계적으로 활용 등 산업 진흥과 적정 규제 사이 균형점을 찾기 위한 논의와 노력이 한창인 상황이다. EU AI법이 GDPR 때처럼 세계적 표준과 같이 자리잡는 브뤼셀 효과가 또 일어날지도 미지수"라며 "이미 글로벌 공감대가 어느 정도 형성된 사안에 대해서는 그 위험 수준 등에 맞춰 기본적인 안전장치를 갖추는 입법이 빠르게 진행될 필요가 있다. 하지만 이를 제외하고 탁상공론에 따른 사전규제는 지양돼야 하며, 실무적인 검증을 통해 관련 사례 등이 확인됐을 때 체계적이고 세분화된 규제가 이뤄져야 한다"고 밝혔다.

팽동현기자 dhp@dt.co.kr


[ 저작권자 ⓒ디지털타임스, 무단 전재 및 재배포 금지 ]