디지털타임스

 


[창간기획] "인간보다 똑똑한 AI 통제 못하면 재앙… 윤리 확립 서둘러야"

프린트 페이스북 트위터 카카오스토리
AI의 두 얼굴 직시를
넷플릭스·유튜브 AI가 추천하고
AI 면접관이 당락도 가르는 시대
윤리 확립해야 부작용 막을수 있어
행정·법 규제는 필수
미국·유럽 등 규제 본격화했지만
국내 AI 관련법 아직 국회에 계류
민주주의 위협 가짜뉴스도 무방비
 
韓 AI 산업 현 주소는
세계 6~7위 수준의 경쟁력 갖춰
동남아·중동 공략으로 차별화해야
창간기획

김명주 서울여대 교수


인공지능(AI)이 화두다. SF(공상과학) 영화에서나 보던 AI 시대가 성큼 다가오면서 기대와 공포가 혼재하고 있다. 잘 활용하면 인간의 삶은 보다 윤택하고 여유로워질 것이란 장밋빛 전망이 있는 반면, AI가 인간을 지배하는 우울한 세상이 열릴 것이라는 비관론도 적지 않다. 이에 대해 AI 전문가인 김명주 서울여대 교수(정보보호학부)는 디지털타임스와 가진 인터뷰에서 "AI는 지식혁명의 마지막 꽃"이라며 "인간이 AI를 콘트롤할 수 있는 장치가 반드시 필요하며, 이를 위해선 AI 윤리가 확립돼야 한다"고 강조했다. 김 교수는 최근 베스트 셀러 'AI는 양심이 없다'를 펴낸 AI·정보보호 전문가다.

대담 = 강현철 신문총괄에디터

-AI 기술은 최근 텍스트에서 이미지, 영상 등으로 진화하고 있다. AI가 가져올 미래를 어떻게 보는가.

"AI에는 두 종류가 있다. 하나는 기존 정보를 학습하는 기능이다. 이렇게 학습한 데이터를 토대로 인간의 판단을 도와주거나, 스스로 판단한다. 또하나는 생성형 AI로, 텍스트를 영상으로 자동변환해주는 오픈 AI의 '소라', 구글의 '뤼미에르'는 챗GPT의 발전된 버전이다. 여기서 좀 더 나아가 AGI(Artificial General Intelligence, AGI·일반인공지능)처럼 인간과 똑같은 AI가 탄생할 것이다. 스스로 학습할 수 있느냐가 핵심이다. AI의 미래에 대해선 크게 두가지 시각이 있다. 하나는 '두머'(Doomer, 비관론자)이고, 또하나는 '부머'(Boober,예찬론자 )이다. AI를 활용하면 인간의 업무 효율성이 좋아지고, 일과 삶의 질에도 여유가 생길 것이라는 견해가 후자다. 반면 '알파고'의 아버지 데미스 하사비스 구글 딥마인드 창업자 겸 CEO나 물리학자 스티븐 호킹은 '두머'에 가깝다. 호킹은 "AGI가 생기면 인류는 멸망할 것"이라고 했다. AI가 인간처럼 스스로 추론하게 되는 '특이점'은 2045년 또는 구글 예측대로라면 2035년쯤 도래할 것이다. 예를 들어 세계를 지배하는 AGI가 '지구 환경오염의 주범이 인간'이라며 인류를 멸망시키는 판단을 했다면 어떻게 할 것인가. 두머들은 AI가 인간을 지배하는 세상에 대한 비관적 견해를 갖고 있다."

- 저서 'AI는 양심이 없다'에서 "AI는 신뢰를 흔들고, 사람을 차별하며, 사고를 책임지지도 않고, 우리를 착각하게 만들며, 안전하지 못하다"고 했다. AI가 초래할 부정적인 영향을 구체적으로 알려달라.

"예를 들어보자. 요즘 자동차들은 센서도 많고 반컴퓨터화된 상태다. 급발진 사고도 종종 발생한다. 이런 사고를 막으려면 일종의 브레이크 버튼인 '킬 스위치'(kill switch)가 필요하다. 하지만 이런 사실을 자동차 회사들이 알고 있으면서도 킬 스위치를 만들지 못한다. AI자동차도 그럴 것이다. 게다가 횡단보도 보행자 사고 위험시 보행자를 구할 것인가, 운전자를 구할 것인가라는 민감한 문제(트롤리 딜레마·Trolley Dilemma)에 대해서도 AI가 판단하게 된다. 킬 스위치를 만든다 해도 누구에게 권한을 줄 것인가, 어디서부터 콘트롤할 것인가라는 어려운 문제가 따른다. 이런 부작용을 예방하려면 AI를 만들때 인간이 콘트롤할 수 있게 해야 한다. 지금도 인간과 AI 간 관계는 수직적이 아니라 수평적이다. 넷플릭스나 유튜브에서 AI가 추천해주는 걸 보는 것이나, AI 면접관이 인간 대신 당락을 가르는 게 그런 사례다. 재판에서 AI가 잘못된 판결을 내릴 경우 'AI 판단이 틀렸다'는 걸 판사가 증명하려면 엄청난 수고를 해야 한다. 그래서 대부분은 AI 판결을 그냥 수용하고 넘어가게 된다. 인간에게 선택권이 없는 것이다."

-AI의 부작용을 막으려면 무엇이 필요한가.

"AI 윤리가 무엇보다 필요하다. 여기엔 개발자뿐 만 아니라 사업자, 이용자, 정부 등이 모두 포함돼야 한다. AI 윤리는 2016년 알파고가 탄생할 당시부터 논의돼왔다. 제가 인공지능윤리정책포럼 위원장이었던 2018년 당시 발표한 국내 첫 AI 윤리 가이드라인인 '서울 팩트(PACT)'나, 2019년 OECD(경제협력개발기구)의 'AI 윤리원칙' 등이 그것이다. 스스로 학습할 수 있고, 똑똑하며, 사람없이 결정할 수 있는 AI는 인간의 차별과 편견을 고정화할 수 있는 위험이 있다. AI 윤리엔 공공성(Publicness)·책무성(Accountability)·통제성(Controllability)·투명성Transparency)이 포함된다. '인간이 통제 가능한 AI'가 목표다. AI기술에서 소외된 중소기업이나 실버세대도 AI기술 발전 혜택을 함께 누릴 수 있도록 포용성도 포함된다."

-AI 윤리를 만들어도 지키지 않으면 그만 아닌가.

"행정과 법에 의한 규제가 필요하다. 미국에선 지난해 10월말 조 바이든 대통령이 AI 행정명령을 발동했다. 반면 유럽연합(EU)에선 법을 통한 규제를 하고 있다. 처음부터 해도 되는 것과, 하면 안될 것을 명확하게 제시하고 있는 것이다. 우리나라에선 현재 AI 관련법이 국회에 계류돼 있는 상태다. 수사기관이 피의자의 권리를 의무적으로 알려줘야 한다는 미란다 원칙을 만든 얼 워런 전 미 연방대법관은 '법은 윤리라는 바다 위에 떠 있는 배이고, 윤리 없는 법은 존재할 수 없다'고 했다. 법감정이 성숙한 상태에서야 법이 잘 작동할 수 있다. 윤리가 전제되지 않으면 법도 무용지물이다."

-선거를 앞두고 AI에 의한 가짜 뉴스에 대한 우려가 팽배한 상황이다. AI의 이런 폐해를 막으려면 어떤 것들이 필요하나.

"AI 도구(툴)를 통해 만든 콘텐츠는 'AI가 작성한 콘텐츠' 라는 문구를 워터마크로 라벨링하도록 해야 한다. 하지만 우리나라에선 아직 이를 법적으로 규제하지 못하는 상황이다. 얼마전 뮌헨 안보회의(MSC)에서 20개 글로벌 빅테크 기업들이 딥 페이크(deepfake) 자율 규제 방안에 합의했지만, AI툴은 빅테크외에도 굉장히 많아 실효성이 떨어진다. 인터넷 기업들이 걸러주는 건 어느 정도 효과적일 것이다. 또다른 문제는 진짜와 가짜 콘텐츠 구별이 어렵다는 점이다. 이른 바 '폴스 포지티브'(false positive) 문제다. 진짜를 가짜로 판단하는 것이다. 세계경제포럼(WEF)은 인류 앞에 닥친 최대 위험으로 기후위기와 AI에 의한 민주주의의 위협을 꼽았다. AI가 민주주의와 인류 고유의 가치를 뒤흔들 수 있다는 것이다."

-한국 AI 산업의 경쟁력은 어느 수준인가.

"세계 6~7위 수준 정도로 본다. 문제는 글로벌 시장을 향하고 있지 않고 내수형이라는 점이다. AI가 앞선 나라를 공략하기란 쉽지 않다. 베트남, 말레이시아나 중동 등을 집중 공략하는 차별화 전략이 필요하다."

-AI 반도체가 세계적으로 주목받고 있다. 대한민국의 AI 반도체 전략에 대해선 어떻게 생각하나.

"엔비디아가 세계 AI 반도체 시장을 장악한 가운데 챗GPT를 만든 오픈AI의 샘 올트먼 CEO나 일본의 손정의 소프트뱅크그룹 회장 등이 시장 참여를 추진하고 있다. 보도에 따르면 올트먼은 무려 9300조원, 손정의 회장은 133조원 투자를 계획하고 있다고 한다. 삼성전자 등 국내 반도체업체들이 AI 기기에 쓰이는 고대역 메모리반도체인 HBM외에 엔비디아처럼 비메모리반도체 시장에 뛰어들려면 그룹의 존망을 걸어야 할지도 몰라 결정이 쉽지 않을 것이다."

정리=박순원기자 ssun@dt.co.kr

[창간기획] "인간보다 똑똑한 AI 통제 못하면 재앙… 윤리 확립 서둘러야"
김명주 서울여대 교수. 이슬기기자 9904sul@




[ 저작권자 ⓒ디지털타임스, 무단 전재 및 재배포 금지 ]