디지털타임스

 


기술·경영 겸비한 AI전문가… "기업들 준비없이 막연히 AI도입 안타까워" [오늘의 DT인/팽동현의 AI인]

프린트 페이스북 트위터 카카오스토리
흥밋거리 넘어 기업도입 성공사례 집중… 경제성도 대폭 개선
기업들 어떤 서비스 어느수준 진행할지 자사 데이터 확보해야
기술·경영 겸비한 AI전문가… "기업들 준비없이 막연히 AI도입 안타까워" [오늘의 DT인/팽동현의 AI인]
배경훈 LG AI연구원장. 박동욱기자 fufus@



'엑사원 2.0' 선보인 배경훈 LG AI연구원장

올해 내내 세계를 휩쓴 생성형 AI(인공지능) 열풍도 조금씩 기류가 바뀌는 분위기다. 통계 사이트 시밀러웹에 따르면 지난 6월 처음으로 하락세(-9.7%)가 나타난 챗GPT 웹사이트 방문자 수는 7월에도 전월보다 9.6% 감소했다. 성인 이용자 중 4분의 1 이상을 차지하는 대학생들의 방학기간인 점을 고려해도 인기가 이전만 못한 게 사실이다.

최근 워싱턴포스트는 생성형AI도 제대로 된 사업모델을 만들지 못하면 버블에 그칠 수 있다는 우려를 제기했다. 그럴듯한 거짓을 지어내는 할루시네이션(환각)과 기밀·개인정보 유출 우려 등의 문제에다 초거대AI 학습·운영에 필요한 막대한 컴퓨팅 자원과 비용 문제가 지속 가능성에 의구심을 품게 하기 때문이다.

이제 사람들은 단순 흥밋거리를 넘어 실질적으로 도움이 되고 신뢰할 수 있는 AI를 기대한다. 또한, 혁신적이면서도 안정적인 수익모델을 마련해 AI기업들이 자리잡기를 바란다. LG AI연구원은 이런 흐름을 반영해 한층 진화한 '엑사원 2.0'을 선보이는 등 더욱 바쁜 행보를 보이고 있다. 배경훈(47·사진) LG AI연구원장은 "실제 기업 현장의 문제를 AI로 풀어 성공사례를 만드는 데 집중하고 있다"고 말했다.

배 원장은 기술과 경영 양 측면에 모두 역량을 지닌 전문가다. 광운대에서 전자공학을 전공하면서 데이터 신호나 멀티미디어 처리 등 SW(소프트웨어) 개발을 주로 맡았고 컴퓨터비전으로 박사 학위를 받았다. 미국 컬럼비아서던대에서 MBA를 취득하고 스탠포드대 최고프로젝트경영 과정을 수료했다.

벤처업계에서 사회생활을 시작한 배 원장은 이후 방산 및 통신 대기업에서 연구원으로 근무하며 전문성을 쌓았다. 2000년대 중반에 자율주행을 위한 지형인지와 사물인식 등을 연구하는 등 방산분야에서 AI 관련 프로젝트를 일찍이 수행했다. 당시 4년 사이에 SCI(과학기술논문색인)급 논문 10편을 낼 정도로 왕성한 활동을 펼쳤다. 통신분야에선 로봇을 비롯해 삶에 접목되는 프로젝트를 수행하며 딥러닝의 적용영역을 컴퓨터비전뿐 아니라 NLP(자연어처리), 음성인식 등으로 넓혀나갔다.

그는 "2010년대 초 해외 딥러닝 관련 연구를 접하면서 이 기술이 우리가 고민했던 문제를 많이 해결해줄 수 있겠다는 생각이 들었고, 딥러닝을 동반자로 가져가야겠다고 마음먹었다"며 "당시에는 모델이 쓸수록 나아질 수 있다는 점이 널리 인식되지 않아, 관련 프로젝트를 하려 해도 초기 성능만으로 ROI(투자수익률)를 따지는 통에 어려움을 겪기도 했다"고 소회했다.

2016년에는 LG에 합류, 다양한 프로젝트를 수행하며 AI의 유용성을 곳곳에 녹이기 시작했다. LG사이언스파크 AI추진단을 이끌며 배터리 제품의 용량·수명 예측 프로세스를 효율화했고, 3~4년 이상 걸리는 신약 후보물질 발굴 과정도 예측모델을 통해 6개월 수준으로 줄였다. 딥러닝으로 양품에 대한 데이터를 학습해 불량품을 걸러내는 역발상으로 제조 공정의 수율 개선을 이루는 등 성과를 꾸준히 내며 LG그룹 내 AI의 가능성에 대한 인식도 높였다.

이를 바탕으로 2020년 말 AI추진단이 LG AI연구원이 정식 출범, 2021년 말 3000억개의 파라미터(매개변수)를 지닌 LLM(대규모언어모델) '엑사원'을 선보였다.


2021년 초 배 원장을 중심으로 LG AI연구원이 오픈AI의 GPT-3에 대한 트렌드 보고를 하면서 생성형AI의 가능성에 대한 의견을 냈고, 이에 구광모 회장이 초거대AI 개발에 대해 적극적인 의지를 표명하면서 LG그룹 차원의 발 빠른 대응이 가능했다는 후문이다. 이론이나 연구에만 그치지 않고 실제 산업 현장에서 부딪히며 문제를 풀어온 LG AI연구원의 역량이 뒷받침됐음은 물론이다.
배 원장은 "나름 만족스러운 결과였는데, 실제 활용 확산을 위해 계열사들과 논의하다 보니 산업 전문성을 갖춘 곳이 많아 파인튜닝(미세조정)이 꽤 필요했고, 또 모델 규모가 있다 보니 운영 과정에서 비용 문제를 해결할 필요가 있었다"며 "LLM 본연의 경쟁력을 높이기 위해 모델 경량화 및 학습데이터 확충 등 많은 고민과 노력이 이어졌다"고 밝혔다. '엑사원 2.0'의 등장 배경이다.

멀티모달 LLM '엑사원 2.0'은 '전문가AI'라는 정체성을 이어가면서 학습데이터 품질 강화, 비용효율성 강화, 맞춤형 모델 제공에 집중했다. 논문·특허 데이터는 4500만건 이상, 이미지-텍스트 데이터는 3억5000만장 이상을 보유했다. 한국어와 영어를 동시에 이해하고 생성할 수 있는 바이링구얼(Bilingual) 모델이란 점도 특징으로, 영어에 비해 부족할 수밖에 없는 한국어 데이터의 한계를 극복하기 위한 묘수이자 글로벌 시장 공략을 위한 포석이기도 하다.

고민거리였던 경제성도 대폭 개선했다. 이전 모델에 비해 추론 처리 시간을 25% 단축하고 메모리 사용량을 70% 감소시킴으로써 같은 성능에도 약 78%의 비용을 절감할 수 있게 했다. 멀티모달 모델의 경우 더 나은 품질을 위해 메모리 사용량은 2배로 늘리면서 추론 시간을 83% 단축, 비용을 약 66% 줄였다. 여기에 △17억개 △88억개 △250억개 △700억개 △1750억개 △3000억개 파라미터 규모로 다양한 모델을 제공하고, 고객 내부 데이터에 대한 추가 파인튜닝이나 구축 방식 선택도 지원하면서 맞춤형 공급을 꾀했다.

배 원장은 초거대AI가 전문영역을 중심으로 그 가치를 인정받을 수 있을 것으로 기대한다. AGI(범용AI)까진 아직 갈 길이 먼 상황에서 실용성을 확보하기 위해 단계적으로 접근해야 한다는 견해다. LG AI연구원은 실제로 전문영역에 집중해 다른 LLM들보다 신뢰성을 높인 결과를 담은 논문을 세계적 AI학회인 ICML(국제머신러닝학회)에서 발표할 계획이다.

배 원장은 "요즘 LLM에 대해 엔지니어링 이슈로만 바라보는 시각도 적지 않은 것 같다. 경쟁력을 높이려면 강화학습 등 관련 역량도 쌓아야 하고, 사람의 개입 없이 인텔리전스를 재생산해 구축하는 체계에 대한 연구도 이뤄져야 한다. 아직 이렇다 할 수익을 낸 곳도 없다"며 "이런 고민 없이 구축·확장에 나서기보다는 신뢰할 수 있는 AI를 만드는 데 집중해야 할 시점이고, 그래야 AI분야 발전이 지속 가능하다"고 짚었다. 향후 건전한 '엑사원' 생태계 구축을 위해서도 충분한 신뢰성 확보가 선행돼야 한다는 것.

AI 도입을 원하는 기업·기관에는 데이터가 준비돼야 한다고 조언했다. "글로벌 기업과 논의하며 느낀 가장 큰 차이점은, 그들은 AI를 적용할만한 자사 데이터에 대해 잘 파악하고 준비해 무슨 서비스에 어느 수준으로 구현해 어떤 가치를 얻을 수 있을지를 논한다는 것"이라며 "안타깝게도 국내에선 이와 달리 일단 도입하면 어떻게 되겠지 식으로 막연하게 생각하는 곳들이 많은 것 같다"고 지적했다.

LG AI연구원은 '엑사원 2.0'을 LG그룹에 적용하면서 글로벌 기업들 상대로도 비즈니스에 나서고 있다. 각 산업 전문영역에 대한 도메인 지식까지 겸비한 AI연구원의 역량이 그 밑바탕이 되고 있다. 초거대AI분야가 시험무대에 오른 가운데, AI 관련 기술과 경영을 겸비한 배 원장은 "각 전문분야에서 실질적으로 가치를 입증하는 성공사례를 만들어내면서 영역을 점차 넓혀 나가겠다"며 "생성형AI뿐 아니라 다양한 AI 기술이 도구로 잘 활용될 수 있도록 고민과 노력을 지속하겠다"며 자신감을 내비쳤다.

팽동현기자 dhp@dt.co.kr


[ 저작권자 ⓒ디지털타임스, 무단 전재 및 재배포 금지 ]