기사 주소: http://www.dt.co.kr/contents.html?article_no=2017020702102351607001
[시론] 감정인식 인공지능 시대 온다

홍진표 한국외국어대 정보통신공학과 교수
[시론] 감정인식 인공지능 시대 온다
홍진표 한국외국어대 정보통신공학과 교수


기계와 음성으로 대화하는 시대가 열렸다. 지난달 라스베이거스에서 열린 CES 전시회에서 음성인식이 최대 이슈였다. 음성인식 기술이 기계학습과 결합하면서 최근 3년간 비약적인 발전을 이뤄 인간과 대등한 수준인 94%의 정확도에 도달하면서 '화면 없는 컴퓨팅'시대가 도래했다. 애플 시리, 구글 어씨스턴트, MS 코타나 등의 경쟁 음성인식 서비스가 있지만, 그 중에서도 아마존의 알렉사(Alexa) 개방형 생태계가 우위인 듯하다. 수많은 기업이 알렉사 API를 이용해 대화형 홈 오토메이션 서비스를 선보였고, 폴크스바겐, 포드 등도 이를 적용한 자동차를 소개했다. 작년 6월 1,000개였던 '스킬'(아마존의 앱)개수가 반년 만에 7000개로 확산됐다.

음성인식 다음으로 해결해야 할 과제는 감정인식이다. 행위과학자들의 연구에 따르면 대화에서 전달하는 메시지에서 단지 7%가 단어 등 언어적 부분에서 얻어지며, 억양 등의 목소리가 38% 효과를 차지는 반면, 얼굴 표정으로 55%가 전달된다고 한다. 기계가 인간의 의도를 잘 헤아리려면 음성과 표정으로 감정을 인식할 수 있어야 할 것이다.

자연스러운 인간과 기계의 커뮤니케이션은 공학적 접근만으로도 해결할 수 없고 인간에 대한 심리학적, 해부학적, 생리학적 이해가 없이는 불가능하다. 찰스 다윈은 인간과 동물의 감정과 감정표현방식은 진화에 의해 형성된 생물학적 특징이기 때문에 인류에 통용된다고 주장했다. 의학적으로 감정이란 '인간의 생리적, 심리적 혹은 사회적인 욕구에 대한 반응으로서 기쁨, 슬픔, 놀라움, 공포, 노여움, 혐오 등으로 강하게 영향받는 상태'를 말하며, 임의적 자극이 자율신경계를 각성시켜 생리적 변화가 발생된 것을 감지한 결과로 인식한다.

입력되는 매체에 따라 얼굴 표정을 통한 인식, 음성을 통한 인식, 제스처를 통한 인식, 그리고 생체신호(근전도, 심전도, 심박수, 호흡, 피부전도율 등)을 통한 인식으로 구분할 수 있으며, 또한 이들 중 일부를 종합해서 감정 분류 및 인식정확도를 향상할 수 있다. 예를 들어, 표정에 의한 감정인식은 대체로 폴 애크먼 교수가 창안한 이론을 근거로, 안면 근육들의 활동에 따라 눈썹, 눈, 입, 뺨이 움직임 등 관찰 가능한 동작을 단위로 삼아 이미지나 비디오에서 이들 동작 단위(Action Unit)를 추출해 내고 이들을 조합으로 감정 상태를 예측해 판단한다.

MS는 '프로젝트 옥스퍼드'를 통해 8개의 감정을 분류하는 'emotion API'를 공개했다. 애플에 인수된 이모션트는 주의집중, 참여, 정서 3가지 핵심성과지표로 감정을 측정하고 광고와 홍보의 성과를 증진할 수 있다고 한다. 어펙티바는 광고를 보는 소비자의 감정을 측정한다. 크라우드이모션은 드라마나 TV쇼에 대한 시청자 반응을 모니터링하고 있다. 소프트뱅크는 감정을 읽고 감정을 갖는 세계 최초의 로봇 페퍼(pepper)를 지난해 6월 발매했다. 오감으로 감지된 자극에 따라 호르몬이 분비되고 감정이 발생되는 인간 생리를 모델로 삼아 자율적으로 감정을 발생시킬 수 있다.

감정인식 기술은 응용분야와 파급효과는 무궁무진하다. 인간과 기계간 소통이 자연스럽고 풍부해져 마주보고 대화하듯이 가전기기나 자동차, 공장 설비를 조종할 수 있을 것이다. 자폐증이나 우울증 진료와 치료, 원격진료 등 의료에 활용될 수 있다. 회의나 강연에서 청중의 반응을 살필 수 있고, 광고의 효과를 증진시키는데 사용할 수 있을 것이다. 고객의 행동 패턴을 보다 잘 이해해 미래 구매활동을 예측하는 등 마케팅에 도움을 줄 것이다. 교육에서는 학생의 참여도와 이해도를 증진시킬 수 있다. 거짓말 탐지, 범인 색출 등 사회안전에도 이용될 수 있다. 내년 CES전시회는 감정인식의 해가 되지 않을까 희망 섞인 전망을 해 본다.

[저작권자 ⓒ디지털타임스 무단 전재-재배포 금지]