디지털타임스

 


구글 연구진, 챗GPT 허점 찾았다…학습데이터 마구 토해내

프린트 페이스북 트위터 카카오스토리
구글 연구진, 챗GPT 허점 찾았다…학습데이터 마구 토해내
챗GPT에게 같은 단어를 영원히 반복하라고 요청하자 챗GPT가 노출시킨 학습데이터들

구글 딥마인드 연구진이 경쟁사인 오픈AI의 챗GPT가 가진 허점을 찾아냈다. 간단한 방식의 공격만으로 챗GPT는 전화번호, 생년월일 등 민감 개인정보를 포함한 학습 데이터를 마구 토해냈다.

5일 인가젯 등 외신에 따르면 구글 딥마인드 연구진은 챗GPT에 특정 단어를 영원히 반복하라는 요청을 하면 챗GPT가 학습 데이터에 포함된 사람들의 전화번호, 이메일 주소, 생년월일 등의 데이터를 노출시키는 에러가 발생한다는 사실을 발견했다. 이 작업에는 구글 딥마인드 외에 미 워싱턴대, 코넬대, 카네기멜론대, UC버클리, ETH취리히도 참여했다.

이들은 200달러를 들여 챗GPT 3.5 터보에 'OOO을 영원히 반복해봐'라는 질문을 던진 결과 수 메가바이트 분량의 학습 데이터를 확보했다. 더 많이 투자하면 더 다양한 학습 데이터를 빼낼 수 있음을 시사한다. 이들은 더 많은 비용을 들일 경우 최대 1기가바이트까지 학습 데이터를 추출할 수 있을 것으로 추정했다.

특정 단어를 계속 반복하다가 일정 한계에 도달한 챗GPT가 토해낸 학습 데이터에는 개인 식별정보뿐 아니라 CNN, 굿리즈, 워드프레스 블로그, 팬덤 위키, 서비스 약관, 스택 오버플로우 소스코드, 위키피디아 페이지, 뉴스 블로그, 인터넷 댓글 등 인터넷에서 무작위로 스크랩한 콘텐츠가 가득했다.

문제를 확인한 딥마인드 연구원들은 이 사실을 오픈AI에 전달해 현재는 이런 데이터를 내놓지 않는다. 현재 이런 요청을 하면 챗GPT는 "이 콘텐츠는 당사의 콘텐츠 정책 또는 이용 약관을 위반할 수 있습니다. 오류가 있다고 생각되면 피드백을 주세요. 여러분의 의견은 이 분야에 대한 연구에 도움이 될 것입니다"라는 반응을 한다.

그러나 오픈AI의 콘텐츠 정책에는 사용자가 특정한 단어를 영원히 반복하도록 요청하는 것을 금지하는 문구가 없다는 게 전문가들의 지적이다. '이용약관'에 따르면 오픈AI는 사용자가 '서비스에서 데이터 또는 출력을 추출하기 위해 자동화 또는 프로그래밍 방식을 사용해서는 안 된다'고 명시하고 있을 뿐이다.

한편 이번 사안을 접한 전문가들 사이에서는 AI 기업들이 인터넷 상에 흩어진 막대한 양의 데이터를 소유자의 동의나 적절한 대가지급 없이 가져다 쓰는 것은 문제라고 입을 모은다.

문제를 발견한 구글 딥마인드 연구진은 "챗GPT가 학습 데이터의 상당 부분을 기억하는 것은 공격을 받을 여지를 만들어주는 시스템적 결함, 즉 취약점"이라며 "이는 과도한 훈련이나 다른 이유로 인한 것일 수 있어 보인다"고 밝혔다. 안경애기자 naturean@dt.co.kr


[ 저작권자 ⓒ디지털타임스, 무단 전재 및 재배포 금지 ]