[포럼] AI, 활용하되 문제점 잊지 말아야

유승화 아주대 명예교수

  •  
  • 입력: 2019-06-03 17:53
  • 프린트
  • 페이스북
  • 트위터
  • 카카오스토리


[포럼] AI, 활용하되 문제점 잊지 말아야
유승화 아주대 명예교수
5G 시대의 스마트 헬스, 자율자동차, VR/AR 등 다양한 모바일 클라우드 서비스 등장으로 폭발적 네트워크 트래픽 증가가 예상된다. 방대한 네트워크 데이터 분석과 트래픽에 대해 이상 징후를 기존 방식으로 분석하기란 불가능하다. 대규모 빅데이터를 수집 분석하여 필요한 정보를 획득하는 것은 매우 중요하지만 과정은 복잡하고 많은 시간이 걸린다. AI 및 머신러닝을 이용하면 위협정보 및 이상 행위 등에 대한 보안 로그, 네트워크 트래픽 패턴이나 다양한 데이터를 활용하여 사이버보안 역량을 개선할 수 있다. 그러나 신경망 네트워크에서의 프라이버시, 보안 통제의 자동화, 위험을 최소화하기 위한 과정의 취약성 등이 상존하며, AI 기반 시스템의 오류, 자동화된 의사결정의 위험에 대한 대책이 필요하다.

향후 AI는 새로운 산업의 토대가 될 것이며, 우리 환경을 보다 효과적으로 보호하고 위협을 탐지하여 안전한 사회를 구축할 것이다. 이러한 AI의 기회요인과 함께 AI와 머신러닝이 초래할 수 있는 문제점을 우리는 인식할 필요가 있다. 적대 국가들과 범죄조직들이 AI 기술을 악의적 목적으로 악용할 수 있다. 사이버보안에서 AI를 이용할 때 정상적인 행위를 해킹으로 판단하는 오류와 실제 해킹을 정상적인 행위로 판단하는 오류를 초래할 수 있다.

예를 들면, 경찰이 최신 빅데이터를 이용하여 범죄 위험 정도에 따라 위험 가능성이 많은 순찰 지역에 집중하여 업무를 효율화할 수 있지만 범죄자들 또한 경찰과 똑같은 데이터 세트를 사용하여 범죄를 효과적으로 수행할 수 있고, 체포 위험을 최소화할 수 있는 방식으로 활용할 수 있다. 또한 AI 기술을 이용한 변조 가능성이 상존한다. 해커들은 자율주행차, 음성인식 서비스를 수행하는 머신러닝 알고리즘을 악용하여 고양이를 호랑이로 변조할 수 있고, 모차르트 교향곡을 음성기반 공격음성으로 변조할 수 있다. 이러한 것들은 머신러닝 시스템에 대한 악용 사례들이다.

해커들은 이미지나 음성을 정교하게 변형함으로써 컴퓨터를 속여서 조작할 수 있다. 머신러닝 시스템이 판독 오류를 하고, 사물을 잘못 이해시킬 수 있는 데이터를 제시하며, 빅데이터에서 프라이버시 침해를 유발할 수 있는 민감한 정보 추출이 가능하다. 그리고 컴퓨터가 머신러닝에 사용되는 빅데이터를 처리하는 방식에서 약점이 있을 수 있다. 또한 머신러닝과 함께 빅데이터가 사용될 때 뇌가 작동하는 방식을 모방한 신경망 네트워크가 오류를 유발할 수 있다. 마찬가지로 자율주행차의 경우에는 악의적인 행위자가 교통표지판을 변조하여 정지 신호를 직진 신호로 판독하는 경우 중대한 위험을 초래할 수 있다. 다양한 분야에서 문제를 해결하기 위해 신경망 네트워크 기반의 머신러닝을 새로운 제품에 도입하면서 개인정보 침해 위험이 높아질 수 있다. 예를 들어, 병원, 마켓, 정부 등은 광범위한 프라이버시에 민감한 데이터 세트를 기반으로 신경망 네트워크를 만들 수 있다. 민감한 정보를 다루는 해당 데이터 세트에 적절한 제약사항이 적용되지 않으면 실제 데이터 접근에서 제한된 상대방이 신경망 네트워크 기술을 이용하여 개인정보를 추출할 수 있다. 머신러닝 기반의 시스템이 컴퓨터가 정지 신호를 직진 신호로 볼 수 있고, 음악이 스마트 장치를 원격으로 제어하는 음성으로 인식할 수 있는 등 신경망 네트워크 기술의 활용 관련 다양한 위험 요인이 상존함으로 신경망 설계자는 시스템 구축 방법을 신중하게 고려할 필요가 있다.

현재 AI는 아직 인간의 창조적 지능에 접근하지 못했으나 알파고는 바둑의 격언이 얼마나 우리를 구속했는지 알게 했고, 사람의 바둑에 대한 생각에 자유를 주었다. AI는 그러한 편견과 고정된 패턴 없이 데이터를 기반으로 그 상황에 맞는 최선의 선택이 무엇인지를 보여줌으로써 창의적이고 놀랄만한 다양한 방식을 제시해 주고 있다. AI 자체의 우수성보다는 무엇을 하려고 하는가와 그것을 이루기 위한 다양한 빅데이터가 더 중요해지고 있다.

사이버보안 분야에 있어서의 적용 역시 AI 자체보다는 보안 분야에서 달성하려고 하는 것이 무엇인지, 그리고 그것을 이뤄내기 위한 충분한 데이터를 확보하고 있는지를 먼저 살펴야 할 것이다. 그런 관점에서 정보보안 만이 아닌 다양한 분야의 산업들과 소통 및 융합해야 한다. 또 국내 특화된 데이터는 우리가 가장 많이 보유하고 있고 이를 수집·정제·공유하고 전 세계 위협 인텔리전스와의 협업과 함께 AI의 학습 데이터로 활용될 수 있도록 해야 한다.

또한 딥러닝과 같은 AI 알고리즘을 활용하여 프로그래밍 할 줄 아는 인력 양성도 중요하지만, 기반 빅데이터에 대한 관리와 AI 활용방안에 대한 전문가, 그리고 투자에 대한 지원이 이뤄질 때 국내에서도 보다 많은 AI를 활용한 다양한 솔루션과 서비스가 개발되고 활용될 수 있다. 이를 통해 앞으로 다양한 분야에서 보다 다양한 AI를 활용한 창의적인 방식이 많이 만들어질 것이다.

지난 수십 년간 IT 분야가 획기적으로 발전한 것처럼 향후 사이버보안은 계속 진화할 것이다. 향후 AI와 머신러닝을 사용하여 사이버보안 분야의 문제점을 해결할 것으로 예상되며, 앞으로 사이버보안 접근법과 아키텍처는 지속적으로 변화 발전할 것이다. AI와 머신러닝 기술에 대한 다양한 산업 분야에서 관심이 높아지고 있고, 우리가 원하는 대로 적용되기 위해서는 빅데이터에 대한 보안 중요성을 인식하여야 한다.

사이버보안 분야는 많은 연관 분야의 지식이 필요하고 그에 따른 새로운 취약점과 위협이 등장하고 있는데, 현재 이에 대한 학습의 기회와 시간이 필요하다. 또한 새로운 공격기법이 계속적으로 개발 추진되고 있다. 그러나 현재도 부족한 인력구조 속에서 이러한 취약점들과 새로운 공격기법을 학습할 시간 확보는 매우 중요한 문제점이다. 향후 사이버보안 관련 AI 기술 발전과 이용가능성은 지속적으로 확대되고, AI 기술의 기회요인과 위험요인 등을 고려한 사이버보안 제품과 서비스 개발을 전개할 때 사이버보안의 역량은 발전할 것이며, 미래의 스마트 세상의 안전을 향상시킬 것으로 기대된다. 그러나 우리는 AI를 이용하지만 AI의 문제점을 잊지 말아야한다.

[저작권자 ⓒ디지털타임스 무단 전재-재배포 금지]

추천기사