총 113개 보안 요구사항 제시
과학기술정보통신부와 한국인터넷진흥원(KISA)은 외부의 사이버위협으로부터 인공지능(AI) 모델·서비스를 보호하기 위해 기업과 국민이 참조할 수 있도록 ‘인공지능(AI) 보안 안내서’를 마련했다고 10일 밝혔다.
정부가 그동안 안전한 AI 활용을 위한 지침·가이드라인 등을 발간해왔지만, 주로 AI 생성물이나 추론 과정 등에 대한 신뢰성 및 윤리적 활용 관점을 다뤘고 사이버위협 예방·대응을 위한 보안 관점에서의 상세한 가이드나 기준은 제시되지 않았다. 이에 과기정통부는 산·학·연 전문가들과 함께 국내외 AI 보안 정책 관련 사례 등을 분석하고 관계기관·업계 대상으로 의견 수렴을 거쳐 이번 안내서를 마련했다.
안내서는 AI 모델·시스템에 대해 기밀성, 무결성, 가용성 등 보안 3대 요소를 기반으로 개발자, 서비스 제공자 대상 AI 생애주기 모든 단계의 보안 요구사항과 이용자의 AI 보안수칙 등 총 113개 항목으로 구성됐다.
구체적으로는 모델 개발 단계에서 AI 모델 위험 관리, 데이터 암호화, 실시간 모니터링 등 AI 보안 내재화를 실현하기 위한 보안 요구사항을 제시하고, 서비스 제공 단계에선 서비스 이상 행위 탐지, API·인터페이스 보안, 백업시스템 구축 등 서비스 복원력 관점에서의 보안 요구사항을 제시했다. 마지막으로 중요 정보 입력금지, AI 악용 금지 등 이용자를 위한 구체적인 보안 수칙을 제시했다.
이번 보안 안내서는 국제 기준 및 가이드라인 등을 참고해 AI 보안 요구사항을 글로벌 수준으로 정립함으로써, 국내 모델뿐 아니라 해외 모델에도 적용할 수 있도록 범용성과 글로벌 규범 간 호환성을 확보한 점이 특징이라고 과기정통부는 설명했다.
임정규 과기정통부 정보보호네트워크정책관은 “이번 AI 보안 안내서는 고도화되는 사이버위협 속에서 AI를 안전하게 개발·활용할 수 있도록 하는 중요한 이정표가 될 것”이라며 “AI에 대한 새로운 보안위협을 모니터링해 반영하는 등 보안 안내서를 지속 업데이트해나갈 예정”이라 말했다.
‘인공지능(AI) 보안 안내서’는 과기정통부, KISA 홈페이지를 통해 무료로 내려받아 사용할 수 있다.
실시간 주요뉴스
기사 추천
- 추천해요 0
- 좋아요 0
- 감동이에요 0
- 화나요 0
- 슬퍼요 0