LGU+ ‘익시젠’ 논문, ‘EMNLP 2025’서 채택

통신·금융서 성능 향상… 실용성 인정받아

김기현 연구위원, 박성익 팀장 인터뷰

김기현(오른쪽) LG유플러스 CTO AX기술그룹 연구위원과 박성익 LG유플러스 CTO AX기술그룹 AI테크랩 기술팀장이 디지털타임스와 인터뷰하고 있다. LG유플러스 제공
김기현(오른쪽) LG유플러스 CTO AX기술그룹 연구위원과 박성익 LG유플러스 CTO AX기술그룹 AI테크랩 기술팀장이 디지털타임스와 인터뷰하고 있다. LG유플러스 제공

“인공지능(AI) 경쟁의 핵심은 크기가 아니라 ‘뾰족함’입니다. 산업마다 특화된 영역을 얼마나 잘 깎아내느냐가 관건이죠.”

김기현 LG유플러스 CTO AX기술그룹 연구위원은 4일 디지털타임스와의 인터뷰에서 초거대언어모델(LLM)의 크기를 키우는 경쟁이 한계에 다다랐다고 지적했다. 대신 그래픽처리장치(GPU) 인프라·비용·데이터 보안 등 한국 기업이 맞닥뜨린 현실적 제약 속에서 작지만 정밀한 소형언어모델(sLLM)을 도메인별로 최적화하는 전략이 실효성 있다고 강조했다.

LG유플러스가 자체 생성형 AI 모델 ‘익시젠’을 기반으로 작성한 한 논문이 세계적 자연어처리(NLP) 학회 ‘EMNLP 2025’에 최근 채택됐다.

논문은 산업 데이터를 지속적으로 학습하면서도 범용 언어 능력을 유지하는 ‘도메인 특화 학습’(DACP) 기법을 제안했다. 박성익 LG유플러스 CTO AX기술그룹 AI테크랩 기술팀장은 “GPU 자원이 한정된 기업이 작은 모델로 큰 모델 수준의 성능을 내는 방법을 제시한 점이 높은 평가를 받았다”며 “가성비 높은 산업형 AI 전략의 가능성을 보여준 논문”이라고 설명했다.

핵심은 도메인 특화 학습이다. 기존 기업들이 사전학습된 범용 LLM을 가져와 소량의 도메인 데이터로 미세조정(파인튜닝)하는 데 그쳤다면, LG유플러스는 약 300기가바이트(GB) 규모의 산업 데이터를 사전학습 단계부터 주입했다. 김 연구위원은 “파인튜닝의 미세 조정이 아니라 지식 자체를 각인시키는 접근”이라며 “산업 언어에 둔감한 범용 모델의 한계를 넘었다”고 말했다.

김기현(오른쪽) LG유플러스 CTO AX기술그룹 연구위원과 박성익 LG유플러스 CTO AX기술그룹 AI테크랩 기술팀장이 디지털타임스와 인터뷰 하고 있다. LG유플러스 제공
김기현(오른쪽) LG유플러스 CTO AX기술그룹 연구위원과 박성익 LG유플러스 CTO AX기술그룹 AI테크랩 기술팀장이 디지털타임스와 인터뷰 하고 있다. LG유플러스 제공

박 팀장은 “작은 모델로도 큰 모델 수준의 체감 성능을 내자, 비용과 인프라 부담이 큰 기업 고객의 반응이 즉각적이었다”며 “실제 서비스 환경에서 재현 가능한 결과라 EMNLP에서도 산업적 실용성을 인정했다”고 설명했다.

LG유플러스는 LLM 경쟁 대신 ‘작고 효율적인 AI’ 전략에 속도를 낸다. 김 연구위원은 “빅테크는 돈이 많지만 국내 기업들은 현실적으로 인프라와 비용 한계가 있다”며 “한국 시장에서는 작은 모델을 도메인별로 정밀하게 다듬는 방식이 현실적”이라고 말했다.

연구팀은 DACP를 자사 통신 상담 및 금융 영역에 적용해 실제 성능을 검증했다. 김 연구위원은 “통신 분야에서 평균 56%, 금융 분야에서 39%의 성능 향상을 확인했다”며 “특정 도메인 데이터를 학습하면서 기존 지식을 잊지 않도록 리플레이(replay) 학습을 병행했다”고 말했다.

LG유플러스는 통신을 넘어 금융, 교육, 법률, 의료 등으로 적용 영역을 확장할 계획이다. 박 팀장은 “DACP는 통신 전용 레시피가 아니라 여러 산업에 이식 가능한 표준 파이프라인”이라며 “특히 온프레미스·보안 요구가 높은 업종에서 장점이 크다”고 말했다.

김 연구위원은 “클라우드 비용, 보안, 데이터 이전 규제 같은 현실 제약을 정면 돌파하려면 거대 모델 숭배에서 벗어나 산업 현장의 문제를 해결하는 게 진짜 혁신”이라며 “한국형 AI 생태계의 현실적 해법은 ‘작지만 뾰족한 AI’”라고 강조했다.

김나인 기자 silkni@dt.co.kr



[저작권자 ⓒ디지털타임스, 무단 전재-재배포, AI 학습 및 활용 금지]
김나인

기사 추천

  • 추천해요 0
  • 좋아요 0
  • 감동이에요 0
  • 화나요 0
  • 슬퍼요 0