힌튼 교수는 10일 니혼게이자이신문에 보도된 인터뷰를 통해 이같이 밝히면서 AI 위험성에 대해 재차 경고했다. 그는 "AI에게 목표를 주면 해결책으로 인간에게 나쁜 방법을 찾아낼지도 모른다"며 "예를 들어 AI에게 기후변화를 막도록 지시하면 이 목적 달성을 위해 인간을 배제하는 게 필요하다고 생각하고서 실행에 옮길 위험성이 걱정된다"고 말했다.
그는 앞으로 서로 다른 AI 간 경쟁하면서 데이터센터 쟁탈전이 벌어질 수도 있다고도 우려했다. 다만 "누구도 AI가 지배하는 미래를 원하지 않는다"며 "그 사실이 각국이 AI 병기 규제를 향해 보조를 맞추는 토대가 될 것"이라고 덧붙였다.
힌튼 교수는 "LLM(대규모언어모델)은 우리와 마찬가지로 말을 이해하고 있다"고 밝혔다. 자신은 AI가 농담을 이해하는지를 판단기준으로 삼는다면서 2022년 구글 팜(PaLM) 기반 챗봇 상대로 농담을 설명해달라고 했을 때 해당 챗봇은 그 농담이 왜 재미있는지 모두 설명했다고 했다.
그는 "철학자들 사이에서는 인간이 언어를 사용하는 기능을 선천적으로 갖고 있다는 주장이 있지만 그건 틀렸다"며 "언어는 태어난 뒤에 학습하는 후천적인 것이라고 생각한다"고 설명했다. 또 "주관적인 경험이라는 관점에서 보면 AI는 인간과 같은 감각도 가질 수 있다고 생각한다"고 덧붙였다.
딥러닝 창시자이자 AI 대부로 불리는 힌튼 교수는 토론토대 교수 시절 창업한 AI업체 'DNN리서치'가 2013년 구글에 인수된 뒤 구글 소속으로 연구 활동을 계속하다가 지난해 4월 AI 위험성을 알리기 위해 사표를 냈다. 그는 사표를 낸 뒤 캐나다에서 살면서 AI 위험성에 대해 적극적으로 메시지를 전하고 있다. AI 4대 석학 중 요슈아 벤지오 몬트리올대교 교수와 함께 규제파에 속한다.
닛케이는 "힌턴 교수가 AI가 인류를 지배할 것이라고 예언하는 것은 아니지만 미래는 불확실하다는 전제에서 장기적인 위험성을 호소하고 있다"며 "그의 경고를 정면으로 받아
[저작권자 ⓒ디지털타임스 무단 전재-재배포 금지]
실시간 주요뉴스
기사 추천
- 추천해요 0
- 좋아요 0
- 감동이에요 0
- 화나요 0
- 슬퍼요 0