구글의 모기업인 알파벳을 비롯한 5개 거대 IT 기업들이 인공지능(AI)의 윤리 기준을 함께 만든다고 뉴욕타임스가 1일(현지시간) 보도했다.





이 신문에 따르면 알파벳과 아마존, 페이스북, IBM, 마이크로소프트 등 5개 기업의 연구자들은 최근 만나서 AI와 관련된 각종 이슈를 논의했다. AI가 일자리나 교통, 전쟁 등에 미치는 영향 등이 포함됐다.

이들 5개 기업은 9월 중순에 새로운 단체를 발표할 잠정적인 계획을 세우고 이와 관련한 자료를 공유하고 있다.

이들 기업의 기본적인 의도는 AI 연구가 인간에 해가 아니라 혜택을 주는 데 초점을 맞출 수 있도록 보장하는 것이라고 복수의 관계자들은 말했다.

IT 업계에서 주된 걱정 가운데 하나는 규제 당국이 기업의 AI 연구에 대한 규정을 만드는 것이다.

이 때문에 이들 기업은 자율적인 단체가 AI와 관련한 기준을 세우는 틀을 짜려 한다고 뉴욕타임스는 전했다.

텍사스대의 컴퓨터 과학자로 이날 스탠퍼드대가 낸 AI 보고서에 참여한 피터 스톤은 "규제가 없어야 한다는 것은 아니다. 우리가 말하려는 점은 (규제에는) 옳은 방식과 잘못된 방식이 있다는 것"이라고 말했다.

'2030년의 인공지능과 삶'이라는 제목의 스탠퍼드대 보고서는 AI 규제는 불가능할 것이라고 지적했다.

이 보고서는 "AI를 전반적으로 규제하려는 시도는 잘못될 수 있다"면서 "AI에 대한 분명한 정의도 없고 AI의 위험과 고려할 점은 영역에 따라 크게 다르기 때문"이라고 설명했다.

IBM의 AI 분야를 이끄는 데이비드 케니는 "정부의 역할이 있으며 그에 대해서는 존중한다"면서도 "정책이 기술에 뒤처질 때가 많다"고 우려했다.

한편 구글 등 5개 기업과 별도로 링크트인 창업자 리드 호프먼은 AI의 사회경제적 영향을 연구하는 프로젝트에 자금을 지원하기 위해 매사추세츠공대(MIT) 미디어랩과 논의 중이다.

[저작권자 ⓒ디지털타임스 무단 전재-재배포 금지]

기사 추천

  • 추천해요 0
  • 좋아요 0
  • 감동이에요 0
  • 화나요 0
  • 슬퍼요 0