디지털타임스

 


[테크&포커스] 명확한 책임주체 없는 오픈소스, 규제는 어떻게?

프린트 페이스북 트위터 카카오스토리
핵심 개발주체 없어 품질 저하
유지관리 부담에 방치 가능성도
글로벌 AI 산업은 오픈AI와 MS, 구글이 대표하는 폐쇄형 진영과, 개발자 커뮤니티, 유명 스타트업, 메타가 포함된 오픈소스 진영으로 양분된 상태다. 오픈AI와 구글은 오픈소스화 대신 API(응용프로그램 인터페이스), 플러그인 같은 방식으로, 기술의 폐쇄성은 유지하면서 외부 혁신을 연계하는 전략을 편다.

오픈소스 진영의 반격 뒤에는 '오픈'을 기조로 출범했지만 챗GPT 열풍과 MS와의 대동단결 후 기술의 문을 걸어잠근 오픈AI에 대한 반감도 일부 담겨있다.

그 중심에는 메타가 있다. 오픈AI와 구글이 후발주자들의 추격을 따돌리는 동시에 AI 오용의 위험을 최소화하는 접근을 펴는 것과 달리 메타는 폐쇄하는 게 문제를 없애는 정답이 아니라는 주장을 줄기차게 이어가고 있다.

메타 라마2와 어깨를 나란 하는 오픈소스 AI로는 앤트로픽의 '클로드-2', 모자이크ML 파운데이션의 'MPT-7B', TII(테크놀로지 이노베이션 인스티튜트)의 '팔콘 LLM', LMSYS ORG의 '비쿠나-13B' 등이 꼽힌다.

스탠퍼드대 연구진의 '알파카', 이미지 생성 AI로 잘 알려진 스태빌리티AI의 '스태이블LM', 데이터브릭스의 '돌리' 등 라마를 활용해서 만든 LLM도 속속 등장하고 있다.

오픈소스 생태계 안에서 개발자들은 라마2 성능 개선에 동참한다. 아바쿠스 AI의 '지라프(Giraffe)'와 투게더 AI의 '라마2-7B-32K-인스트럭트' 같은 오픈소스 모델은 오픈AI의 GPT-4 같은 폐쇄형 LLM에서만 지원했던 3만2000개 토큰 입력이 가능하다. 모자이크ML의 오픈소스 MPT 7B와 30B 모델은 개발자들이 생성형 AI 모델을 처음부터 훈련할 수 있도록 지원한다. 머신러닝 플랫폼 허깅페이스가 운영하는 오픈 LLM 리더보드에도 라마2에 기반한 AI 모델들이 많이 등장한다. 국내 AI 스타트업 업스테이지가 개발한 LLM이 챗GPT는 물론 메타의 라마2도 제치고 지난 7월 성능 1위를 차지하기도 했다.

오픈소스는 누구나 최신 혁신기술에 접근해 빠르게 개발하고 공급업체 종속성과 비용을 낮출 수 있다는 장점이 있다. 이는 AI에서도 마찬가지다.

오픈소스 AI 옹호론자들은 기술의 투명성과 유연성, 책임성, 경제성, 접근성을 강점으로 꼽는다.

오픈소스 AI는 투명성과 커뮤니티 중심의 협업을 바탕으로 AI 솔루션 개발과 배포 방식을 혁신할 수 있다. 개발자들이 개방된 기술을 활용해 새로운 모델과 애플리케이션을 빠르게 개발하고 반복할 수 있다. 기본 알고리즘과 데이터가 투명하게 공개돼, 편견을 줄이고 공정성을 높일 수 있다는 장점도 있다.

AI 개발을 민주화해 협업을 촉진하고 다양한 전문지식을 갖춘 커뮤니티를 키울 수 있는 것도 강점이다.

반면 만만치 않은 잠재적 위험이 지적된다. 좋은 표현으로는 AI 민주화와 접근성 향상이지만, 무분별한 AI 개발이 기술의 악용으로 이어질 우려가 크다. 일부 오픈소스 AI 프로젝트는 보안이 취약한 생성형 AI와 LLM을 사용해 이용자를 위험에 빠뜨릴 가능성이 있는 것으로 지적된다. 품질 저하도 리스크다. 오픈소스 AI 모델은 협업을 바탕으로 발전하지만 핵심 개발주체가 없다 보니 시간이 지나면서 품질이 떨어질 수 있다. 전담 팀에 의해 유지·관리되는 폐쇄형 모델과 달리 유지관리 부담도 커뮤니티가 갖는데, 자칫 방치와 혁신 지연으로 이어질 수 있다.

이는 사용자 신뢰와 AI 발전에 발목을 잡을 수 있다. 오픈소스 AI는 규제의 복잡성을 야기할 우려도 있다. 민감한 데이터를 보호하고, AI가 악의적으로 사용되는 것을 방지하고, 모델이 잘 유지되는지 확인하는 방법 등 고려해야 할 요소가 많기 때문이다.

특정 책임주체가 있는 폐쇄형 모델과 달리 규제당국이 오픈소스 AI를 관리하는 데 어려움을 겪을 수 있다.

안경애기자 naturean@dt.co.kr




[ 저작권자 ⓒ디지털타임스, 무단 전재 및 재배포 금지 ]