디지털타임스

 


AI 초음파로 유방암 더 정확하게 진단한다

프린트 페이스북 트위터 카카오스토리
김철홍 포스텍 교수팀, 딥러닝 기반 다중 모달 융합 네트워크 개발
AI 초음파로 유방암 더 정확하게 진단한다
김철홍 포스텍 IT융합공학과 교수 포스텍 제공

유방암은 부동의 여성암 1위일 뿐 아니라 6대 암 중 유일하게 20년간 환자가 늘어나고 있다. 유방암은 조기에 발견해 치료하면 생존할 확률이 높지만 3기 중반부터는 생존율이 75% 이하로 급격히 낮아지는 만큼 정기검진을 통한 조기 발견이 무엇보다 중요하다. 국내 연구진이 AI(인공지능) 기술을 이용해 유방암 진단 정확성을 높일 수 있는 초음파 네트워크 시스템을 개발했다.

포스텍은 김철홍 교수(IT융합공학과·전자전기공학과·기계공학과)와 전자전기공학과 미스라 삼파 씨, 전자전기공학과 윤치호 씨 연구팀이 'B-모드'와 초음파 변형 탄성 영상을 이용해 기존보다 정확하게 유방암을 분할·분류하는 딥러닝 기반 다중 모달 융합 네트워크를 개발했다고 27일 밝혔다.

초음파 검사는 유방 병변을 평가하기 위한 의료영상 양식 중 하나다. 악성 병변과 양성을 구별하기 위해 CAD(컴퓨터보조진단) 시스템은 병변의 특징을 자동으로 세분화하고 식별함으로써 방사선 전문의에게 도움을 준다.

포스텍 연구팀은 B 모드와 변형 탄성 그래피(SE) 이미지를 활용해 병변을 분할한 다음, 악성에서 양성을 분류하는 딥러닝 기법을 결합하는 방법을 제안했다. 먼저 병변의 분할을 위해 가중 스킵 커넥션 방법을 사용해 서로 다른 영상 양식에 최적의 가중치를 적용하는 '가중 멀티모달 U-Net 모델'을 개발했다. 또한, 양성·악성 병변을 분류하기 위해 잘린 B-모드와 SE-모드 초음파(US) 병변 이미지에 대한 '다중 모드 융합 프레임워크(MFF)'를 제시했다.

MFF는 통합 피처 네트워크(IFN)와 의사 결정 네트워크(DN)로 구성된다. 제안된 MFF 방법은 최근의 다른 융합 방법과 달리 B 모드 및 SE 모드 US 이미지를 사용해 훈련된 컨볼루션 신경망(CNN)에서 보완 정보를 동시에 학습할 수 있다. CNN의 기능은 멀티모달 모델을 사용해 조립되고, DN은 이러한 기능을 사용해 이미지를 분류한다.

실제 임상 데이터로 실험한 결과, 양성 환자 7명을 5번 중 3번 양성으로, 악성 환자 6명을 5번 중 5번 양성으로 예측했다. 이는 연구팀이 제안한 방법이 지금까지의 단일·다중 초음파 방법을 능가함을 보여준다. 이를 이용하면 US 이미지에서 유방암 탐지를 위한 방사선 전문의의 분류 정확도를 높여줄 것으로 기대된다.

김철홍 교수는 "입력 영상의 중요도를 판단하고 적절한 가중치를 자동으로 할당해 더 정확한 병변 분할을 가능하게 했다"면서 "딥러닝 모델과 앙상블 모델을 동시에 학습시켜 기존의 단일 모드나 다른 다중 모드에 비해 훨씬 뛰어난 분류 성능을 보였다"고 말했다.

과학기술정보통신부, 교육부, 한국전자통신연구원(ETRI) 지원으로 이뤄진 이번 연구성과는 최근 바이오메디컬 분야 권위지인 '바이오엔지니어링 앤 트랜스레이셔널 메디슨'에 게재됐다. 이준기기자 bongchu@dt.co.kr


[ 저작권자 ⓒ디지털타임스, 무단 전재 및 재배포 금지 ]