디지털타임스

 


AI 판사가 공정성 잃으면 어쩌나?…AI윤리 공들이는 기술기업들

프린트 페이스북 트위터 카카오스토리
AI 판사가 공정성 잃으면 어쩌나?…AI윤리 공들이는 기술기업들
김성훈 업스테이지 대표가 9월 12일 미국 워싱턴 국무부에서 열린 '한미 ICT 정책 포럼'에서 AI 윤리와 관련해 발표하고 있다. 업스테이지 제공

AI(인공지능) 판사가 공정성을 잃거나 자율주행차량이 사람의 생명이나 교통질서를 중시하지 않으면 어떤 일이 발생할까. AI에 대한 의존도가 높아질수록 중요성이 더욱 커지는 게 AI 윤리성이다. 자칫 방향을 잃은 기술은 사회에 유용한 도구가 아닌 골칫거리가 될 수 있다.

AI는 의료, 교육, 법률, 보안, 교통 등 다양한 분야에서 인간에 도움을 줄 수 있지만 반대로 인간의 권리와 자유를 침해하거나, 사회적 불평등과 차별을 악화시킬 수도 있다. 이를 막으려면 AI는 인간의 존엄성과 공공의 선을 존중하고 보호하는 방식으로 설계되고 운영돼야 한다.

◇윤리성 결여된 AI가 가져올 파장은?

AI 윤리와 신뢰성의 중요성은 아무리 강조해도 지나치지 않다. AI는 의료 진단이나 치료에서 인간의 생명을 구할 수 있지만, 반대로 잘못된 판단이나 오류로 인해 인간의 생명을 위협할 수도 있다. 또한 AI는 법률 판결이나 정책 결정에서 인간의 권리와 정의를 보장할 수 있지만, 반대로 편견이나 차별로 인해 인간의 권리와 정의를 침해할 수도 있다. 따라서 AI는 인간의 존엄성과 공공 선을 존중하고 보호하는 방식으로 설계되고 운영돼야 한다.

AI는 인간의 편향과 오류를 반영하거나 증폭시킬 수 있다. 예를 들어, AI는 학습에 사용되는 데이터가 특정 인종, 성별, 종교 등에 대한 편견을 담고 있으면, 그 결과도 편향되거나 차별적일 수 있다. 또한 AI는 예측이나 의사결정에 있어서 인간이 간과하거나 잘못 판단할 수 있는 요소들을 고려하지 못할 수도 있다. 따라서 AI는 공정성과 투명성을 갖추고, 인간의 감독과 개입이 가능한 방식으로 개발되고 운영돼야 한다.

◇AI, 인간의 감독과 개입이 가능하도록 개발돼야

AI 윤리와 신뢰성을 실현하기 위해서는 다양한 이해관계자들이 협력하고 소통해야 한다. 예를 들어, AI 개발자와 연구자들은 AI 윤리 원칙과 가이드라인을 준수하고, AI 시스템의 안전성과 견고성을 확보하며, AI 시스템의 작동 방식과 한계를 명확하게 설명하고 문서화해야 한다.

AI 사용자와 소비자들은 AI 시스템의 장점과 위험을 이해하고, AI 시스템에 대한 신뢰와 비판적 사고를 갖추며, AI 시스템에 대한 피드백과 요구사항을 제시해야 한다. AI 규제자와 정책 입안자들은 AI 시스템의 윤리적, 법적, 사회적 측면을 고려하고, AI 시스템의 표준과 규제를 마련하고, AI 시스템의 모니터링과 감독을 수행해야 한다. AI 교육자는 AI 시스템의 기초와 원리를 널리 알리고, AI 윤리에 대한 인식과 교육을 증진시키고, AI 윤리에 대한 다양한 의견과 논쟁을 촉진해야 한다.

◇EU, AI 위험수준 '금지·고위험·제한된 위험·최소 위험'으로 구분

세계 각국은 AI 윤리 관련 가이드라인을 도입하고 있다. 유엔교육과학문화기구(UNESCO)는 2021년 11월 25일 제41차 총회에서 193개 회원국의 만장일치로 '인공지능 윤리 권고'를 채택했다. 이 권고는 AI의 건전한 발전을 보장하는 법적 인프라 구축을 안내할 공통 가치와 원칙을 정의한다.

유럽연합(EU)은 2021년 4월 '인공지능에 관한 규제 제안'을 발표했다. 이 제안은 AI 시스템의 위험 수준에 따라 '금지·고위험·제한된 위험·최소 위험' 등 4단계의 규제를 적용할 계획이다. 미국은 2021년 5월 '인공지능 기술의 책임 있는 사용을 위한 국가 전략'을 발표했다. 이 전략은 AI 기술의 혁신과 경쟁력을 강화하면서도 인권,민주주의, 공정성 등의 가치를 존중하고 보호하기 위한 방안을 제시한다.

우리나라는 2020년 12월 '인공지능 윤리 헌장'을 선포했다. 이 헌장은 인간 중심의 AI 개발과 활용을 위해 '인간 존엄성·자율성·공정성·사회적 책임·보안성' 등 5대 원칙과 10대 구체적 실천 방안을 제시한다.

이러한 국제적이고 다양한 논의와 협력은 AI 윤리와 신뢰성을 보다 실질적이고 구체적으로 구현하기 위한 필요한 과정이다. 하지만 이러한 노력들이 실제로 AI 시스템의 개발과 운영에 반영되기 위해서는 AI 기업들의 적극적인 참여와 선도가 필요하다. AI 기업들은 AI 윤리와 신뢰성에 대한 인식과 책임감을 갖고, 자신들의 AI 기술과 서비스가 사회에 미치는 영향을 고려하고, 윤리적 가치와 원칙을 준수하고, 신뢰할 수 있는 AI 시스템을 제공해야 함은 물론이다.

◇글로벌 기업들, AI의 설명 가능성, 안전성 평가도구 공개

글로벌 AI 기업들은 데이터를 수집하고 활용하는 과정에서 윤리적인 문제에 직면할 수 있다. 예를 들어, 데이터의 품질과 신뢰성, 데이터의 편향성과 차별성, 데이터의 개인 정보 보호와 보안성, 데이터의 투명성과 설명 가능성 등이 그것이다. 이러한 문제들을 해결하기 위해 글로벌 AI 기업들은 다양한 노력을 하고 있다

IBM은 2018년 'AI 윤리 원칙'을 발표했다. 이 원칙은 'AI는 인간의 가치와 권리를 존중하고 보호해야 한다', 'AI는 투명하고 설명 가능해야 한다', 'AI는 신뢰할 수 있고 안전하며 책임감 있게 개발되고 운영돼야 한다' 등으로 구성되어 있다. IBM은 이 원칙을 실천하기 위해 AI 시스템의 편향성, 설명 가능성, 안전성 등을 평가하고 개선할 수 있는 도구와 프레임워크를 개발, AI 시스템의 편향성을 감지하고 완화하는 오픈소스 툴킷 IBM AI 페어니스 360과 AI 시스템의 결정 과정과 결과를 이해하기 쉽게 설명하는 오픈소스 툴킷 IBM AI Explainability 360을 공유했다.

구글은 2018년 'AI 원칙'을 발표했다. 이 원칙은 'AI는 사회적 이익을 증진시켜야 한다', 'AI는 안전하고 신뢰할 수 있어야 한다', 'AI는 사람과 협력하고 존중해야 한다', 'AI는 과학적인 엄격성과 기술적 우수성을 추구해야 한다' 등으로 구성되어 있다. 구글은 이 원칙을 실천하기 위해 AI 시스템의 편향성, 설명 가능성, 안전성 등을 평가하고 개선할 수 있도록 AI 모델의 성능과 편향성을 분석하는 오픈소스 도구 텐서플로우 모델 어낼리시스4을 개발했다. 구글은 또한 AI 시스템의 윤리적 문제에 대한 연구와 교육을 지원하고 있다.

마이크로소프트(MS)는 2019년 'AI 윤리 가이드라인'을 발표했다. 이 가이드라인은 'AI는 인간 중심이어야 한다', 'AI는 공정하고 비차별적이어야 한다', 'AI는 개인 정보와 보안을 보호해야 한다', 'AI는 투명하고 설명 가능해야 한다' 등으로 구성되어 있다. MS는 이 가이드라인을 실천하기 위해 AI 시스템의 윤리, 안전성 등을 평가하고 개선할 수 있도록 AI 공정성 진단 시스템인 페어런을 공개한 바 있다.

◇업스테이지, AI용 데이터 수집도 윤리성 고려

국내 기업 중 업스테이지는 자사가 운영하는 데이터 수집 및 공유 플랫폼인 '1T 클럽'을 통해 AI 윤리와 신뢰성을 구현하고 있다. 자체 5대 윤리원칙인 '사람중심', '신뢰성', '공정성', '안전성', '보편성'을 선포하고, 이를 기반으로 데이터를 정제하고 모델을 만든다고 설명했다. 이를 통해 투명하고 윤리적인 양질의 데이터를 모으고, 한국문화 정서를 담아낼 수 있는 고품질의 LLM을 개발하고자 한다고 밝혔다.

업스테이지는 '1T 클럽'에 참여하는 파트너사들에게 API 사용료 할인과 LLM의 API 사업 수익 공유 등의 혜택을 제공하고 있다. 이는 데이터 제공자와 모델 제작자가 상생하는 생태계를 구축하고, 국내 LLM의 독립과 글로벌 경쟁력을 확보하기 위한 방안이다. 특히 크롤링을 통한 AI 학습으로 인해 저작권법 혹은 개인정보 문제에서 자유롭지 못한 데이터로 학습하는 문제를 해결하고 데이터 제공자와 모델 제작자 모두가 혜택을 볼 수 있도록 운영할 계획이다.

업스테이지 관계자는 "AI 윤리와 신뢰성은 우리의 미래를 결정하는 중요한 요소"라면서 "AI가 인류와 공존하기 위해서 AI 윤리를 실천하는 방법과 모범을 기업들이 제시함으로써 미래를 더 활짝 열 수 있길 기대한다"고 밝혔다. 팽동현기자 dhp@dt.co.kr


[ 저작권자 ⓒ디지털타임스, 무단 전재 및 재배포 금지 ]