[디지털산책] 개인정보보호 공약 재검토할 때

김승주 고려대 사이버국방학과 교수

  •  
  • 입력: 2017-05-29 18:00
  • 프린트
  • 페이스북
  • 트위터
  • 카카오스토리


[디지털산책] 개인정보보호 공약 재검토할 때
김승주 고려대 사이버국방학과 교수


문재인 대통령은 주요 경제 공약으로 4차 산업혁명을 언급하며 대통령 직속 '4차 산업혁명위원회' 설치를 비롯해 인공지능(AI), 자율주행차, 빅데이터 등 다양한 육성안을 발표했다. 하지만 목표 달성이 그다지 쉬워 보이지만은 않는다. 바로 대통령의 개인정보보호와 관련한 공약 때문이다.

유세 당시 대통령은 개인정보 권리 강화에 초점을 맞춰 "산업 활성화를 이유로 개인정보 법제를 완화해서는 안된다"는 공약을 내세운 바 있다. 그러나 국제적으로도 매우 높은 수준의 개인정보 및 위치정보 보호법을 운영하고 있는 우리나라로서는 이를 완화하지 않고는 인공지능 개인비서나 자율주행차 등과 같은 미래 먹거리 전략 산업을 제대로 육성하기란 불가능하다.

보통 인공지능의 3대 기술 요소로 △인공지능 소프트웨어, △컴퓨터의 성능, △인공지능을 학습시키기 위한 대량의 데이터를 꼽는다. 2000년대에 들어 인공지능 기술이 급속도로 발전한 배경엔 바로 혁신적인 인공지능 소프트웨어의 등장이 있었다. 인공지능 소프트웨어란 컴퓨터가 사람과 같이 스스로 추론하고 학습하기 위한 절차나 방법을 프로그래밍해 놓은 것을 의미한다. 구글은 이미 세계 최고 수준의 인공지능 소프트웨어(정확히는 인공신경망 기반 기계학습 알고리즘인 딥러닝(Deep Learning)을 구현한 소프트웨어)인 텐서플로(TensorFlow)를 개발해 공개한 바 있으며, 그 외에도 빅DL(BigDL)과 오픈딥(OpenDeep), 카페(Caffe) 등 수많은 소프트웨어들이 공개됐다.

인공지능에 있어 소프트웨어 못지않게 중요한 것이 바로 컴퓨터의 성능이다. 최첨단의 인공지능 소프트웨어라 할지라도 이것이 빠른 시간 안에 학습하기 위해서는 막대한 데이터를 획기적인 시간 안에 처리할 수 있도록 하는 고속 처리 능력이 필수적이다. 이세돌 9단과 대결 당시 구글의 알파고(AlphaGo)는 1202개의 중앙처리장치(CPU)와 176개의 그래픽처리장치(GPU)를 가진 수퍼컴퓨터에서 작동했다. 구글의 데이터센터에 있던 수퍼컴퓨터가 바둑을 뒀다는 것이다.

그러나 인공지능 소프트웨어와 컴퓨터의 성능이 아무리 뛰어나다 하더라도 학습할 데이터가 없다면 인공지능은 아무런 지식이 없는 텅 빈 뇌나 다름없다. 책을 많이 읽은 아이가 어휘가 풍부해지는 원리와 같이 인공지능이 최적의 답을 찾아내려면 학습량이 많아야 한다. 즉 아이의 언어 능력을 향상시키기 위해서는 좋은 책을 많이 읽혀야 하는 것과 마찬가지로 인공지능의 기능을 향상시키려면 학습의 재료가 되는 양질의 데이터를 많이 제공해 주어야 하는 것이다. 실제로 알파고는 정상급 바둑 기사들이 둔 16만 건의 기보(棋譜)를 구해 학습했고, 이외에도 다른 컴퓨터 프로그램들과 하루 3000만 번씩 겨뤄 실력을 키웠다.

현재 우리는 개인정보 및 위치정보의 수집·활용에 있어 산업별, 용도별 특성을 고려하지 않은 채 무차별적인 '사전 동의(opt-in)'를 의무화하고 있다. 또한 강력한 비식별화 조치는 데이터의 품질을 너무나도 떨어뜨려 이를 제대로 활용하기 어렵게 만들고 있다. 이러한 상황에서 우리의 인공지능은 양질의 학습 데이터를 얻을 수 없으며, 자율주행차는 위치정보를 마음껏 활용하기 어렵다.

4차 산업혁명 시대에는 사람과 사물, 공간 등이 인터넷을 매개로 물샐틈없이 연결돼 정보의 생성·수집·공유·활용이 수시로 이뤄지는 '초연결사회'로 진화할 것이며, 이러한 시대의 국가 경쟁력은 데이터의 지속적인 생성과 활용 여부에 따라 결정된다. 이제는 우리 새 정부도 개인정보의 활용과 보호라는 두 마리 토끼를 잡기 위해 보다 더 현실적인 고민을 해야 할 때다.




[저작권자 ⓒ디지털타임스 무단 전재-재배포 금지]


가장 많이 본 기사