최근 '챗GPT'를 시작으로 거대 언어 모델(LLM)이 적용된 생성형 인공지능(AI) 시장이 폭발적인 관심을 받고 있지만, 그간 AI 관련 산업이 직면했던 개인정보 보호 등의 '근본적인 과제'를 해결하기에는 역부족이라는 분석이 제기됐다.
시장조사업체 옴디아는 14일 '2023 생성형 AI 시장 전망 보고서'를 발표하고 이와 같은 내용을 공유했다. 해당 보고서에는 생성형 AI 시장 동향을 이해할 수 있도록 빠르게 변화하고 있는 생성형 AI 시장 및 사용 사례, 핵심 사용자와 선정 이유 등 2023년 생성형 AI 생태계 전반을 분석했다.
옴디아는 보고서에서 올해가 생성형 AI의 '극초기 시장 단계'가 될 것이라 정의하며, 다가올 한 해 동안 생성형 AI가 무엇이고 무엇을 하는지에 대한 큰 혼란이 발생할 뿐만 아니라 생성형 AI가 사용될 수 있는 방법에 대한 창의적인 혁신이 폭발적으로 늘어날 것이라고 언급했다.
다만 최근 챗GPT를 시작으로 생성형 AI 시장이 빠른 속도로 발전하고 있는 것과 별도로 생성형 AI 시장 역시 앞선 AI 유형이 직면해 왔던 시장 문제들을 해결하지 못할 것이라고 옴디아는 분석했다.
생성형 AI 출력 결과의 원천인 초거대 언어 모델(LLM)이 인종, 성별, 성적 지향성, 능력, 언어, 문화 등에 대한 유해 언어 또는 편향된 콘텐츠를 포함할 수 있는 공공 데이터를 통해 훈련된 것이기 때문에 출력 결과 자체가 편향되거나 부적절할 수 있기 때문이다.
아울러 대부분의 딥러닝 AI와 마찬가지로 결과를 도출한 원천 자료를 쉽게 추적할 수 없기 때문에 생성형 AI 출력 결과를 명확히 설명하기 쉽지 않다는 점도 약점으로 지적됐다. 인공지능이 판단에 대한 이유를 사람이 이해할 수 있는 방식으로 제시할 수 있는 능력인 '설명 가능성'은 AI 전반에 걸친 도전 과제이지만, 생성형 AI는 출력 결과에 대한 신뢰성과 안전성을 담보하기 어렵다는 게 옴디아의 설명이다.
마크 베큐 옴디아 수석 애널리스트는 "생성형 AI 이니셔티브는 현재 AI가 직면하고 있는 편견, 개인 정보 보호, 책임, 일관성, 설명 가능성 등 근본적인 과제를 해결하지 못하며, 되려 발생한 문제들을 굉장히 복잡하게 할 수 있다"고 강조했다.전혜인기자 hye@dt.co.kr