[네이트뉴스]
서울대병원, 대장내시경 영상 선별 AI 개발…대규모 데이터셋 구축
서울대병원, 대장내시경 영상 선별 AI 개발…대규모 데이터셋 구축자체 개발 알고리즘 ‘AD-BALD’로 정보·비정보성 프레임 분류 효율↑서울대병원 연구팀이 대장내시경 영상에서 진단 가치가 높은 프레임을 효율적으로 선별하는 인공지능(AI) 알고리즘을 개발하고, 이를 기반으로 대규모 데이터셋을 구축했다.서울대병원은 이동헌 영상의학과 교수, 진은효 강남센터 소화기내과 교수 연구팀이 능동학습 기반 알고리즘 ‘AD-BALD’를 개발하고, 이를 활용해 서울대병원 강남센터·충남대병원의 실제 임상 데이터와 글로벌 공공 데이터를 통합한 16만 프레임 규모의 데이터셋 ‘InfoColon’을 구축했다고 23일 밝혔다.대장내시경은 암 예방을 위한 핵심 검사지만, 검사 과정에서 발생하는 화면 흐림이나 거품 등으로 영상 품질이 저하되는 문제가 있다. 이러한 ‘비정보성 프레임’은 AI 학습 효율을 떨어뜨리고 실시간 진단 보조 시스템의 정확도를 저해하는 요인으로 지목돼 왔다.연구팀이 개발한 AD-BALD 알고리즘은 AI가 스스로 판단하기 어려운 영상을 선별해 전문가 검증을 요청하는 방식으로 작동한다. 이를 통해 최소한의 데이터만으로도 고품질 학습 데이터셋을 구축할 수 있는 것이 특징이다.InfoColon 구축 및 평가 과정 개요 ⓒ서울대병원연구팀은 영상을 진단 가치가 높은 ‘정보성 프레임’과 ‘비정보성 프레임’ 6종(장벽, 거품, 흐림, 조명 불량, 도구, 장애물)으로 구분했으며, 전체 데이터의 약 9%(1만2663프레임)만 직접 라벨링하고도 알고리즘을 활용해 16만 프레임 규모의 데이터셋을 완성했다.해당 알고리즘은 분류 성능 지표인 AUROC 기준 최대 0.975의 정확도를 기록했다. 이는 제한된 인력과 비용으로도 대규모 고품질 의료 데이터를 구축할 수 있음을 보여주는 결과다.아울러 연구팀은 선별된 정보성 프레임을 활용해 대장 내부 구조를 3차원 점구름 형태로 재구성하는 데도 성공했다. 이는 대장의 주름과 굴곡을 입체적으로 구현한 것으로, 향후 시술 중 병변을 놓치지 않도록 돕는 ‘내시경 내비게이션’ 기술로의 확장 가능성을 제시한다.이동헌 교수(영상의학과)는 “InfoColon은 비정보성 프레임 문제 해결을 위한 표준화된 학습 지침서”라며 “AD-BALD를 함께 활용하면 방대한 영상을 효율적으로 가공할 수 있어 차세대 내시경 AI 연구에 실질적인 도움이 될 것”이라고 강조했다.한편 연구팀은 데이터셋 ‘InfoColon’과 ‘AD-BALD 구현 코드’를 공공 플랫폼(Synapse, GitHub)에 각각 공개했으며, 이번 연구 결과는 네이처 자매지 ‘Scientific Data’ 최신호에 게재됐다.
[메디게이트 뉴스]
서울대병원, 인종 편향 없앤 의료용 안면 익명화 AI ‘FairAnon’개발
백인 위주 AI 데이터 학습 한계 극복...아시아인·흑인 등 모든 인종에 동등한 개인정보 보호
[메디게이트뉴스 박민식 기자] 의료 영상에서 진단에 필수적인 피부 병변은 원본 그대로 보존하고, 환자의 신원만 가상의 얼굴로 익명화하는 AI 기술이 개발됐다. 서울대병원 영상의학과 이동헌 교수팀은 인종에 따른 성능 격차를 없애고 동등한 개인정보 보호를 제공하는 안면 익명화 AI 프레임워크 ‘FairAnon’을 개발했다고 2일 밝혔다. 연구팀이 개발한 이 AI는 기존 모델의 낮은 얼굴 생성 품질과 중대한 한계점이었던 인종 편향 문제를 해결했다. 특히 익명화된 이미지에서도 98.9%의 높은 정확도로 안면 질환 진단을 위한 피부 병변을 유지해, 앞으로 어떤 인종이든 차별 없이 안전하게 의료 데이터를 활용할 수 있을 전망이다. 최근 환자 신원 보호를 위해 원래 얼굴을 가상 얼굴로 변환하는 생성형 AI 기술이 도입되고 있다. 그러나 기존 모델들은 저품질의 얼굴 이미지를 생성하는 문제와 더불어, 서양인 얼굴 데이터셋 위주로 학습된 탓에 다양한 인종 개념을 서양인 중심의 기본값과 뒤섞어 학습하는 현상이 발생했다. 이로 인해 아시아인 등 타 인종의 얼굴을 변환할 때 화질과 개인정보 보호 수준이 모두 저하되는 한계가 있었다. 연구팀은 기존 생성형 AI의 한계를 극복하기 위해 2단계 구조를 고안했다. 1단계는 AI 지식 공간에 얽혀있던 인종 개념을 명확히 분리하는 ‘직교 의미 기반 가이드(OSG)’ 기술을 적용했다. 이어 2단계는 외부 참조 모델 없이 사람의 시각적 선호도에 맞춰 고품질 이미지를 생성하는 ‘단순 선호도 최적화(SimPO)’ 기법을 도입했다. 또한, 연구팀은 환자의 임상적 특징을 보존하면서 신원만 가리는 정밀 제어 기술도 구현했다. 충남대병원에서 수집한 1만7697장의 안면 데이터로 AI의 얼굴 영역 분할 학습을 진행했다. 이를 통해 눈, 코, 입, 얼굴 윤곽 등 핵심 특징을 정밀하게 파악해 마스크를 생성하고, 마스킹 된 영역만 가상 얼굴로 재생성하되 나머지 영역은 원본 그대로 유지되도록 설계했다. 그 결과, 인종별 생성 이미지 간 품질 격차를 나타내는 편향 지표(LPIPS-Std)가 기존 0.087에서 0.012로 대폭 낮아졌다. 특히 기존에 유독 낮았던 아시아계 얼굴의 생성 다양성 점수는 0.31에서 0.48로 크게 향상됐으며, 모든 인종에서 일관된 품질을 기록해 고질적인 인종 간 격차를 해소했다. 성능 평가 결과, 안면 인식 AI가 원본을 식별하지 못하는 익명화 성능(EER)이 최대 기준치(50%)에 근접한 47.8%를 기록했다. 실제 사진에 가까울수록 낮은 값을 갖는 이미지 품질 지표(FID) 역시 91.34를 달성해 비교된 최신 모델 중 최고 성능을 입증했다. 더불어 10만여 장의 외부 데이터 교차 검증에서도 일관된 보호 성능을 확인했다. 나아가 연구팀은 분당서울대병원과 한림대강남성심병원의 임상 사진 6000장(여드름 등 5개 질환 및 정상 피부)에 이 기술을 실제 적용했다. 대표 표본 180장을 피부과 전문의 3명이 평가한 결과, 환자의 신원은 효과적으로 보호하면서도 진단에 필수적인 병변을 98.9%의 정확도로 보존해 냈다. 전문의 간 의견 일치도(Fleiss’ kappa) 역시 0.87로 매우 높아 객관적인 임상 유용성을 확인했다. 이동헌 교수(영상의학과)는 “이번 연구는 인종 간 공정성을 개선하면서 실제 의료 영상에서도 활용할 수 있는 개인정보 보호 기술을 제시했다는 점에서 의미가 크다”며 “이 프레임워크는 향후 개인정보 보호 제약이 큰 헬스케어 및 의료 영상 분석 시스템에서 안전하고 공정한 데이터 활용을 가능하게 하는 핵심 기술이 될 것으로 기대된다”고 말했다. 한편, 이번 연구 결과는 컴퓨터사이언스, 이론 및 방법 분야 최상위 국제학술지 ‘Information Fusion’ 최근호에 게재됐다.
[의학신문]
서울대병원, 잡음 많은 광용적맥파서 심박수 분석 정확도↑ AI 제시
[의학신문·일간보사=김현기 기자] 일상생활에서 스마트워치나 환자 모니터링 장비로 심박수를 측정하면, 움직임이 많을수록 값이 부정확해지는 경우가 많다. 이러한 문제는 실제 스마트워치 등에서 널리 활용되는 광용적맥파(Photoplethysmogram, PPG) 기반 심박수 측정에서도 나타나, 신뢰할 수 있는 심박수 분석 방법이 요구된다.
이러한 가운데 서울대병원 영상의학과 이동헌 교수 연구팀이 잡음이 섞인 광용적맥파 신호에서 심장 박동과 직접 관련된 신호 성분만을 분리해 심박수를 보다 정확하게 분석할 수 있는 인공지능 기반 분석 방법을 제시해 주목된다.광용적맥파는 손목이나 손가락에 빛을 비춰 혈류 변화를 감지함으로써 심박수를 측정하는 생체 신호이다. 하지만 일상생활 중에는 움직임이나 피부 접촉 변화로 잡음이 쉽게 섞여, 정확한 심박수 분석에 한계가 있었다.연구팀은 이를 잡음이 섞인 광용적맥파 신호를 하나의 불완전한 신호로 보지 않고, 여러 생리적 신호 성분이 혼합된 결과로 해석했다. 이에 여러 신호가 섞인 데이터에서 의미 있는 근원 신호를 분리하는 블라인드 소스 분리(BSS) 개념을 정답 없이도 신호 구조를 학습하는 자기지도학습 인공지능 모델에 적용한 것.광용적맥파(PPG) 측정 원리 개념도. 스마트워치의 빛으로 혈류 변화를 감지해 심박수를 측정한다.(이미지 제공=서울대병원/챗GPT 활용)이를 위해 연구팀은 BSS 기반 자기지도학습 다중 인코더 오토인코더(Multi-Encoder Autoencoder, MEAE) 구조를 활용했으며, 별도의 잡음 제거 필터링이나 데이터 선별 과정 없이 대규모 수면다원검사 공개 데이터베이스(MESA)의 광용적맥파 신호를 학습에 사용했다.이 결과 하나의 광용적맥파 신호는 여러 근원 신호로 분리됐고, 이 가운데 심장 박동 패턴이 가장 뚜렷한 신호를 선택해 심박수 분석에 활용했다.심박수 분석 성능은 심전도(ECG)로 측정한 기준 심박수를 바탕으로, 광용적맥파 원(原) 신호와 기존 신호 처리·분리 기법, 그리고 연구팀이 제안한 BSS 기반 MEAE 방법을 비교해 평가했다.평가 결과, 일상 활동 중 잡음이 포함된 광용적맥파를 측정한 9명의 피험자 데이터(총 108개 기록)에서 광용적맥파 신호를 그대로 사용했을 때보다 심전도 기준 심박수와의 오차(RMSE)가 14.4±10.6 bpm에서 4.9±5.1 bpm으로 감소했다. 심전도 기준 심박수와의 상관계수도 0.407에서 0.740으로 증가해, 심박수 변화 양상을 보다 잘 반영하는 것으로 확인됐다. 이러한 성능 개선은 수술 환자 데이터를 이용한 분석에서도 유사하게 나타났다.이번 연구는 잡음의 유형에 대한 사전 정보나 인위적인 잡음 증강 없이도, 광용적맥파 신호에서 심박수 분석에 적합한 근원 신호를 직접 분리해 활용할 수 있음을 확인한 결과다. 실제 임상 환경은 물론, 의료 목적의 웨어러블 기기에서도 보다 안정적인 심박수 분석에 활용될 가능성을 보여준다.이동헌 교수는 “이번 연구에서는 심박수 계산에 필요한 신호뿐 아니라, 호흡 등 심장 박동과 다른 생리적 리듬과 연관된 신호가 심장 박동 신호와 구분되어 나타나는 양상도 확인했다”며 “이는 인공지능이 정답을 미리 알지 않아도 신호의 구조적 차이를 스스로 학습할 수 있음을 보여준다”고 설명했다.한편, 이번 연구 결과는 생체공학 및 의료정보학 분야의 국제 학술지 ‘Computers in Biology and Medicine’ 최근호에 게재됐다.
[서울대학교병원]
서울대병원, AI 기반 가상 대장내시경 시뮬레이터 개발
서울대병원, AI 기반 가상 대장내시경 시뮬레이터 개발
- AI 이용해 실제 대장내시경 환경 재현한 가상 시뮬레이터 ‘SeamXSim’ 개발- 현실적인 질감·색감·움직임 구현...대장 재현 정확도 향상, 영상 일관성 16% 개선대장내시경은 대장암 조기 진단과 용종 절제에 필수적이다. 하지만 시술 난이도가 높아, 숙련도에 따라 용종 검출률이 7.4%~52.5%까지 달라질 수 있다. 이에 대장내시경 검사를 훈련할 수 있는 가상 시뮬레이터 프로그램이 개발됐으나, 실제 대장과 차이가 커 교육적 효과는 제한적이었다. 최근 생성형 AI를 기반으로 실제와 유사한 질감·색감·움직임을 구현한 대장내시경 시뮬레이터가 개발돼, 내시경 술기 교육의 몰입도와 정확도를 높일 수 있을 것으로 기대된다.서울대병원 영상의학과 박창민·이동헌 교수(장승현·김이삭 연구원)와 소화기내과 임종필 교수팀은 대장내시경 영상을 학습시켜, 실제와 유사한 시각적 경험을 제공하는 AI 기반 내시경 시뮬레이터 ‘SeamXSim’를 개발했다고 20일 발표했다.연구팀은 실제 대장내시경 영상에서 추출한 1만 6천개의 이미지 조각을 바탕으로, 생성형 AI 모델을 학습시켜 사실적인 대장 텍스처를 구축했다. 이는 기존 시뮬레이터보다 실제 대장 구조와의 오차가 작고(3.6mm vs 5.6mm), 우수한 재현 성능을 보였다.나아가 ‘SeamXSim’에 기반한 비디오 생성 모델 ‘SeamXSim-T’도 추가 개발했다. 이 시스템은 실제 내시경 영상의 움직임·조명·프레임 구성을 학습하여 연속된 시야 변화를 구현할 수 있다. 이를 통해 프레임 끊김 없이 영상이 자연스럽게 이어지는 정도(일관성)를 기존 시뮬레이터 대비 16% 개선하고, 임상현장에서 보는 것과 같은 경험을 제공할 수 있다.임상적 유용성 검증을 위해 연구팀은 내과 전공의 8명을 대상으로 SeamXSim-T의 성능을 5점 척도로 조사했다. 시각적 현실성은 점막 질감, 혈관 패턴, 색감, 조명, 카메라 움직임에서 모두 4점 이상을 받았고, 교육 효과 평가(해부학적 구조 이해도, 병변 식별력, 임상 적용 가능성 등)에서도 긍정적 반응을 얻었다.박창민 교수는 “실제 내시경 환경과 유사한 시뮬레이터를 구현하고, 초보 시술자들이 충분히 반복 훈련할 수 있는 기반을 마련했다. 향후 내시경 시술자의 기술향상을 통해 진단능을 향상시키고, 환자 안전에 기여할 수 있을 것이라 기대한다”며 “용종 절제술 등 다양한 치료 상황을 시뮬레이터로 재현하고, 촉각 반응 내시경 하드웨어를 통합함으로써 더욱 효과적인 임상 훈련 환경을 만들 것”이라고 말했다.한편, 이번 연구는 대한의료인공지능학회 추계학술대회 우수발표상을 수상했으며, 국제학술지 ‘Computers in Biology and Medicine’ 최신호에 게재됐다.
[서울대학교병원]
김영현 학생, 2025년 임상 데이터톤 대상 수상
김영현 박사과정 학생, 2025년 임상 데이터톤 대상 수상
서울대병원은 지난 16일부터 18일까지, 임상데이터 기반 인공지능 개발 대회 ‘한국 임상 데이터톤 2025(Korea Clinical Datathon 2025)’을 성료했다고 밝혔다.‘임상 데이터톤’은 의료 분야의 인공지능 응용 활성화를 위해 서울대병원 국가전략기술 특화연구소에서 개최하는 데이터 처리 경진대회다. 서울대병원 헬스케어AI연구원, 서울대 의료빅데이터 연구센터, 의료인공지능 융합인재양성사업단이 공동 주최했다.올해 대회 주제는 ‘에이전틱 AI(Agentic AI in Healthcare: Navigating Risks, Realizing Benefits)’로, 스스로 판단하고 행동하는 자율형 AI의 의료 현장 적용 가능성을 탐색하는 데 초점을 맞췄다. VitalDB(세계 최대 생체신호 데이터셋), MIMIC(MIT 중환자실 빅데이터), K-MIMIC(국내 다기관 중환자실 빅데이터) 등 MIT와 협력해 비식별화와 번역 처리를 거친 글로벌 데이터셋을 바탕으로, 70명의 참가자가 팀을 구성해 AI의 의료 적용 과정에서 드러나는 위험성과 가능성을 탐구했다.대상은 ‘에이전틱 임상시험 모사: 실제 데이터 기반 증거 생성 자동화 파이프라인 구현 연구’를 수행한 팀이 차지했다. 이 팀은 임상시험의 설계부터 결과 보고까지 전 과정을 자동화하는 AI를 개발하고, 시간과 비용을 획기적으로 단축할 가능성을 제시해 높은 평가를 받았다. 최우수상 및 우수상은 각각 ‘자동화된 진단검사 결과 요약 및 인계 시스템’ 및 ‘발관(Extubation) 예측 모델의 정확도를 향상시키기 위한 LLM 피드백 에이전트’ 연구를 수행한 팀에게 주어졌다.
[전자신문]
서울대병원, 대장 용종 진단보조 AI 개발
서울대병원은 영상의학과 이동헌 교수 연구팀이 국내 4개 의료기관과 공개 데이터셋에 등록된 약 3400건의 대장내시경 데이터를 활용해 대장내시경 컴퓨터 진단 보조 시스템 'ColonOOD'을 개발했다고 17일 밝혔다.
최근 국가암등록통계에 따르면 대장암은 국내 암 발생률 2위, 사망률 3위를 차지하는 주요 암종이다. 다만 대장내시경으로 용종을 신속하고 정확히 진단할 경우 대장암 사망률을 최대 53% 낮출 수 있다고 알려졌다. 대장 용종은 주로 '선종성 용종(고위험)'과 '과형성 용종(저위험)'으로 구분되며, 현재 대장내시경 검사에는 이런 유형을 신속하고 정확하게 진단하기 위해 컴퓨터 보조 시스템(CAD)이 도입되고 있다.기존 시스템은 대부분 용종을 2가지 주요 유형으로만 구분할 수 있어 발생 빈도가 드물거나 새로운 용종을 검출하는 데는 한계가 있었다. 따라서 학습한 적 없던 소수 유형의 용종 감지 기능(OOD)을 탑재해 의료진이 신뢰할 수 있는 결과를 제공하는 새로운 진단 보조 도구가 필요했다.이에 이동헌 서울대병원 영상의학과 교수와 김형신 서울대 데이터사이언스대학원 교수 연구팀은 대장내시경 영상을 바탕으로 용종의 위치와 유형을 자동으로 분류하는 진단 보조 시스템 'ColonOOD'을 개발했다. 이 시스템은 주요 용종의 분포를 학습해 소수 유형 용종의 분포를 검출하는 기능을 갖췄다. 또 용종 분류 시 기존 모델에서 제공되지 않았던 분류 결과의 신뢰 수준(High·Low)을 함께 제시함으로써 내시경 전문의의 정확한 의사 결정을 지원한다.이를 이용하면 1차적으로 고위험 용종을 분류해낼 수 있다. 그 외 유형일 경우 추가 분석 모델이 작동해 저위험 용종과 잠재적 위험이 있는 '소수 유형 용종'을 구분한다. 이 같은 분류 성능을 4개 의료기관(서울대병원 강남센터·서울아산병원·세브란스병원·이대서울병원)의 데이터와 2개 공개 데이터셋을 기반으로 검증한 결과, 전체 용종을 최대 79.7%의 정확도로 분류했다. 전체 소수 유형 용종 중 최대 75.5%를 정확히 검출하는 것으로 나타났다.이동헌 교수는 “이번 연구는 기존 AI 기반 대장내시경 진단 보조 시스템에 소수 유형의 용종 감지 모듈을 통합한 최초의 연구로, 임상의가 신뢰수준에 따라 진단 정확도를 크게 향상시킬 수 있을 것으로 기대한다”며 “향후 전향적 연구 및 다기관 연구로 확장하여 활용 가능성을 검증할 것”이라고 말했다.