디지털타임스

 


스노우플레이크, 오픈소스 LLM `아크틱` 출시…"동급 최강 효율"

프린트 페이스북 트위터 카카오스토리
스노우플레이크, 오픈소스 LLM `아크틱` 출시…"동급 최강 효율"
스노우플레이크는 업계 최고 수준의 개방성과 성능을 갖춘 엔터프라이즈급 LLM(대규모언어모델) '스노우플레이크 아크틱(Snowflake Arctic)'을 출시했다고 25일 밝혔다.

스노우플레이크는 자사 고유의 MoE(전문가혼합) 방식으로 설계된 '아크틱'이 동급 최고 성능과 생산성을 지원한다고 설명했다. 기업의 복잡한 요구사항 처리에도 최적화돼 SQL 코드 생성, 명령 이행 등 다양한 기준에서 조건을 충족한다. 구축에는 3개월 미만이 소요됐고, 학습 비용은 유사 모델 대비 8분의 1에 그쳤다. 아마존 EC2 P5 인스턴스가 학습에 활용됐다.

특히 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 새로운 개방 표준을 수립했다. 또한 아크틱 LLM은 스노우플레이크 아크틱 모델군의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다.

MoE 설계는 기업 요구사항에 따라 세밀하게 설계된 데이터 조립을 통해 학습 시스템과 모델 성능 모두를 향상시켰다. 4800억개 매개변수를 한 번에 17개씩 활성화함으로써 토큰 효율을 크게 높였다. 스노우플레이크에 따르면 아크틱은 추론·학습 중 DBRX보다 약 50%, 라마3 70B보다 약 75% 적은 매개변수를 활성화한다. 코딩(HumanEval+, MBPP+)과 SQL 생성(Spider) 면에서도 DBRX, 미스트랄-8x7B 등 대표적인 기존 오픈모델의 성능을 능가하고 MMLU(대규모다중작업언어이해)에서도 최상급 성능을 기록했다.

아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 엔비디아 NIM, 텐서RT-LLM, vLLM, 허깅페이스 등 기업이 선호하는 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 완전관리형 서비스 '스노우플레이크 코텍스'에서는 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. AWS(아마존웹서비스)에서도 아크틱 사용이 가능해질 예정이다.

슈리다 라마스워미 스노우플레이크 CEO는 "스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다"며 "스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다. 고객에게 유능하면서도 믿을 수 있는 AI모델을 제공할 수 있는 스노우플레이크의 AI역량도 높아지고 있다"고 말했다.팽동현기자 dhp@dt.co.kr


[ 저작권자 ⓒ디지털타임스, 무단 전재 및 재배포 금지 ]