최근 국가암등록통계에 따르면 대장암은 국내 암 발생률 2위, 사망률 3위를 차지하는 주요 암종이다. 다만 대장내시경으로 용종을 신속하고 정확히 진단할 경우 대장암 사망률을 최대 53% 낮출 수 있다고 알려졌다. 대장 용종은 주로 '선종성 용종(고위험)'과 '과형성 용종(저위험)'으로 구분되며, 현재 대장내시경 검사에는 이런 유형을 신속하고 정확하게 진단하기 위해 컴퓨터 보조 시스템(CAD)이 도입되고 있다.
기존 시스템은 대부분 용종을 2가지 주요 유형으로만 구분할 수 있어 발생 빈도가 드물거나 새로운 용종을 검출하는 데는 한계가 있었다. 따라서 학습한 적 없던 소수 유형의 용종 감지 기능(OOD)을 탑재해 의료진이 신뢰할 수 있는 결과를 제공하는 새로운 진단 보조 도구가 필요했다.
이에 이동헌 서울대병원 영상의학과 교수와 김형신 서울대 데이터사이언스대학원 교수 연구팀은 대장내시경 영상을 바탕으로 용종의 위치와 유형을 자동으로 분류하는 진단 보조 시스템 'ColonOOD'을 개발했다. 이 시스템은 주요 용종의 분포를 학습해 소수 유형 용종의 분포를 검출하는 기능을 갖췄다. 또 용종 분류 시 기존 모델에서 제공되지 않았던 분류 결과의 신뢰 수준(High·Low)을 함께 제시함으로써 내시경 전문의의 정확한 의사 결정을 지원한다.
이를 이용하면 1차적으로 고위험 용종을 분류해낼 수 있다. 그 외 유형일 경우 추가 분석 모델이 작동해 저위험 용종과 잠재적 위험이 있는 '소수 유형 용종'을 구분한다. 이 같은 분류 성능을 4개 의료기관(서울대병원 강남센터·서울아산병원·세브란스병원·이대서울병원)의 데이터와 2개 공개 데이터셋을 기반으로 검증한 결과, 전체 용종을 최대 79.7%의 정확도로 분류했다. 전체 소수 유형 용종 중 최대 75.5%를 정확히 검출하는 것으로 나타났다.
이동헌 교수는 “이번 연구는 기존 AI 기반 대장내시경 진단 보조 시스템에 소수 유형의 용종 감지 모듈을 통합한 최초의 연구로, 임상의가 신뢰수준에 따라 진단 정확도를 크게 향상시킬 수 있을 것으로 기대한다”며 “향후 전향적 연구 및 다기관 연구로 확장하여 활용 가능성을 검증할 것”이라고 말했다.