디지털타임스

 


AI 안전성은 공기 같은 존재… "사용자들과 함께 부작용 막는다"

프린트 페이스북 트위터 카카오스토리
이화란 네이버AI세이프티랩 리더
데이터세트 마련 기반 쌓아야
정보보호·보안성, 필수적 포함
이용자들의 다양한 의견 큰도움
생성형 AI(인공지능)를 둘러싼 치열한 기술경쟁과 함께 불거진 이슈가 오남용으로 인한 가짜뉴스 같은 각종 부작용이다. AI와의 공존은 인류가 맞닥뜨린 당면과제가 됐고, AI기업들도 AI 안전성이 아킬레스건이 되지 않도록 안전장치를 만들기 위해 힘쓰고 있다. 열 번 잘해도 한 번 못하면 그로 인해 낙오될 수 있기 때문이다.

이 영역에서 한국 대표 기업으로 꼽히는 곳이 네이버다. 검색을 비롯해 각종 인터넷 서비스를 제공하며 쌓아온 디지털플랫폼 역량을 초거대AI로 이어가고 있다. 네이버에서 AI 안전성 관련 연구를 이끌고 있는 이화란 네이버 AI세이프티랩 리더는 "AI에게 있어 안전성은 우리가 살아가는 데 없으면 안 되는 공기와 같다"며 "사용자들과 함께 호흡을 맞추며 더 좋은 AI를 만들어 가고자 한다"고 밝혔다.

네이버는 올해 초 조직개편을 통해 CEO(최고경영자) 직속으로 '퓨처AI센터'를 신설했다. 책임 있는 AI 개발을 위한 연구·정책 조직으로, AI 안전성 연구를 전문적으로 수행하는 'AI세이프티랩'도 여기에 속해 있다. 2021년 네이버에 합류한 이 리더는 현재 네이버클라우드 AI랩 랭기지리서치팀 리더도 겸하고 있다.

그는 "약 4년 전 GPT-3 등장 이후 LLM(대규모언어모델)의 위험한 발화를 어떻게 억제할 수 있을지, 어떻게 해야 사람들이 생각하는 가치와 잘 부합될지 등 고민이 학계·업계에서 본격적으로 시작됐다"며 "당시 네이버에서도 '하이퍼클로바' 모델을 처음 개발해 사업을 준비하면서 단순 위험단어 필터링부터 말투, 뉘앙스 등 더 난이도 높은 조정까지 필요성이 제기됐고, 그때부터 AI 윤리와 안전성 관련 연구를 집중적으로 하고 있다"고 밝혔다.

'안전한 AI'를 구현하는 방법으로 이 리더는 우선 AI 안전성의 기반이 되도록 좋은 데이터세트를 마련하는 것을 꼽았다. AI모델 학습과 지도 과정에서 데이터부터 신경 써야 한다는 것이다. "예를 들어 한국사회의 특정 소수집단에 대한 차별을 평가할 때도 미국과는 문화·역사 등의 차이로 인해 그 기준이 달라질 수 있다"며 "좋은 내용과 함께 이런 점도 고려해 데이터세트를 만들고 수정·보완을 위해 지속적인 평가도 병행돼야 한다"고 강조했다.

'안전한 AI'에는 정보보호와 보안성도 필수적으로 포함된다. 이를 위해선 기술역량과 함께 체계적인 검증·대응 프로세스도 요구된다. 이 리더는 "사전학습 과정에서 민감정보 등을 정제하는 것은 물론, 악의적인 이용자들의 탈옥(안전장치 해제) 등의 시도에 모델이 넘어가지 않도록 미리 레드팀(모의공격) 운영을 통해 방어 역량을 꾸준히 높이고 있다"며 설명했다.

이어 "소셜미디어(SNS) 등 웹에 공개된 내용을 LLM들이 긁어서(크롤링) 학습에 쓰곤 하는데, 네이버는 이 중 개인정보나 저작권이 포함된 데이터에 대한 모델의 학습 여부를 판별하는 기술도 개발해 지난해 발표했다"며 "최근에는 악의적인 공격자의 모델 복제 시도나 이를 통한 정보유출 등 위험까지 다양한 시나리오를 염두에 두고 이를 예방하기 위한 기술개발에도 초점을 맞추고 있다"고 부연했다.

요즘 AI 안전성 관련 이슈로 가짜뉴스를 빼놓을 수 없다. 특히 다가오는 총선 등 선거 관련 가짜뉴스는 국내 대표 검색서비스 플랫폼사로서 중대 사안이다. 최근 해외에선 오픈AI, 구글 등 AI와 플랫폼 분야 20개사가 미국 대선 등 전 세계 선거에 AI가 악용되지 않도록 자율규제하자는 협약을 맺었다. 이에 방송통신위원회가 국내 플랫폼사들에도 이에 상응하는 조치를 당부한 바 있다. 이에 대해 이 리더는 "답변이 민주주의 철학에 어긋나지 않으면서 선거 관련 잘못된 정보나 특정인물에 대한 근거 없는 비방이 포함되지 않도록 하는 노력을 계속하고 있다"며 "해당 협약에서 논의됐던 꼬리표(라벨링)나 워터마크·메타데이터 삽입 등의 조치와 관련해선 AI로 생성됐다는 사실 표기뿐 아니라 생성물이 선정성 등으로 사용자 주의를 요하는 경우에도 취하는 것을 내부적으로 검토하고 있다"고 공유했다.

생성형 AI가 그럴듯한 허위 답변을 내놓는 할루시네이션 현상도 RAG(검색증강생성) 기술로 추가적인 정보 확인을 거치는 등 갈수록 개선되는 추세이지만 아직 완전한 해결은 요원하다. 이 리더는 가짜뉴스 관련해서도 유사한 맥락에서 접근할 필요가 있다고 밝혔다. "사람들이 공유하는 현재의 사실조차 바뀔 때가 있는데, LLM은 이후 여러 수정·보완을 거치긴 해도 결국 과거 데이터 기반으로 만들어진 것이다. 이런 불완전성을 인식하고 악용되지 않도록 다함께 주의를 기울일 필요가 있다"고 말했다.



이 리더가 언제나 고민하는 부분은 AI 안전성과 윤리의 기준이다. IT분야에 국한되지 않는 근본적인 질문으로, 이 역시 사용자를 포함해 다방면의 도움이 필요하다. 그는 "여러 곳에서 AI의 투명성, 공정성 등을 논하지만 실제 적용하는 일은 여전히 많은 고민을 필요로 한다. AI 규제와 마찬가지로 글로벌과 보조를 맞춰가는 게 우선"이라며 "간혹 데이터세트 작업자들조차 윤리 관련 세세한 기준에서 조금씩 차이를 보이기도 한다. 때문에 서로 검증하고 또 다양한 목소리를 들으며 공감대를 형성해 나가야 한다"고 덧붙였다.이 리더는 AI 안전성을 갖추기 위한 네이버의 고민과 노력이 한국에 적합한 초거대AI를 구현하는 것뿐 아니라 이를 중동·동남아 등 글로벌 시장에 수출하는 데도 도움이 될 것으로 내다본다. "한국어 데이터를 긁어와 그대로 내놓는 수준을 넘어서서 한국 상황과 맥락에 맞는 내용을 제공하려면 그에 맞춘 인스트럭션 데이터세트 제작과 이를 기반으로 한 조정이 필요하다"며 "영미권 위주인 데이터와 벤치마크 등을 우리에 맞게 적용해본 경험이 장차 수출에 있어 문화별 차이 등을 반영하는 데도 도움이 될 것"이라고 자신했다.

이 리더는 AI 안전성을 높이기 위해 가장 필요한 것은 사용자들의 피드백이라고 당부했다. "AI의 안전성은 기본으로, 이게 결여되면 어떤 AI서비스도 하기 어렵다"며 "네이버가 이를 위해 힘을 쏟는 과정에서 많은 이용과 다양한 의견이 큰 도움이 될 것"이라고 말했다. 또한 "이와 관련해 정부와 업계·학계를 아우르는 논의의 장이 더욱 활성화됐으면 좋겠다"며 "이를 통해 스타트업·중소기업 등 국내 AI산업 생태계에서도 AI 안전성 관련 준비를 충분히 할 수 있게 되기를 바란다"고 덧붙였다.

팽동현기자 dhp@dt.co.kr<네이버의 '안전한 AI' 관련 활동>



AI 안전성은 공기 같은 존재… "사용자들과 함께 부작용 막는다"
이화란 네이버 AI세이프티랩 리더가 디지털타임스와의 인터뷰에서 "AI 안전성은 AI서비스에 있어 필수요소이며 이를 위한 데이터세트와 프로세스가 매우 중요하다"고 강조하고 있다. 네이버 제공


연구 부문정책 부문
서울대-네이버 초대규모AI연구센터
강결합 산학협력 (2021.5 ~)
AI 윤리 준칙 발표 (2021.2)
컴퓨터공학 공정성 분야 세계적 학회 
ACM FAccT서 AI 윤리 워크숍 개최 (2022.6)
'네이버-SAPI AI 리포트' 첫 발간 (2021.11)
인간-컴퓨터 상호작용 분야 세계 최고 권위 학회 
CHI 2023에서 '베스트 페이퍼' 선정 (2023.4)
AI 윤리 준칙 외부 발표 (2022.03)
세계 최고 권위 자연어처리 학회 ACL 2023에서 
초거대AI 윤리 관련 논문 채택 (2023.5)
AI 윤리 자문 프로세스 CHEC 도입 (2022.11)
인간-컴퓨터 상호작용 분야 세계 최고 권위 학회 
CHI 2023에서 '베스트 페이퍼' 선정 (2023.4)
네이버-SAPI, '신뢰 가능한 초거대AI: 플랫폼과 
스타트업의 협력' 공동 세미나 개최 (2023.7)
첫 AI 안전성 정상회의 참석 (2023.11)네이버 퓨처AI센터 설립 (2024.1)



[ 저작권자 ⓒ디지털타임스, 무단 전재 및 재배포 금지 ]