News
16개의 게시물이 있습니다. (검색 필터 적용됨)

[의학신문]

서울대병원, 잡음 많은 광용적맥파서 심박수 분석 정확도↑ AI 제시

2026-01-07

[의학신문·일간보사=김현기 기자] 일상생활에서 스마트워치나 환자 모니터링 장비로 심박수를 측정하면, 움직임이 많을수록 값이 부정확해지는 경우가 많다. 이러한 문제는 실제 스마트워치 등에서 널리 활용되는 광용적맥파(Photoplethysmogram, PPG) 기반 심박수 측정에서도 나타나, 신뢰할 수 있는 심박수 분석 방법이 요구된다.
이러한 가운데 서울대병원 영상의학과 이동헌 교수 연구팀이 잡음이 섞인 광용적맥파 신호에서 심장 박동과 직접 관련된 신호 성분만을 분리해 심박수를 보다 정확하게 분석할 수 있는 인공지능 기반 분석 방법을 제시해 주목된다.광용적맥파는 손목이나 손가락에 빛을 비춰 혈류 변화를 감지함으로써 심박수를 측정하는 생체 신호이다. 하지만 일상생활 중에는 움직임이나 피부 접촉 변화로 잡음이 쉽게 섞여, 정확한 심박수 분석에 한계가 있었다.연구팀은 이를 잡음이 섞인 광용적맥파 신호를 하나의 불완전한 신호로 보지 않고, 여러 생리적 신호 성분이 혼합된 결과로 해석했다. 이에 여러 신호가 섞인 데이터에서 의미 있는 근원 신호를 분리하는 블라인드 소스 분리(BSS) 개념을 정답 없이도 신호 구조를 학습하는 자기지도학습 인공지능 모델에 적용한 것.광용적맥파(PPG) 측정 원리 개념도. 스마트워치의 빛으로 혈류 변화를 감지해 심박수를 측정한다.(이미지 제공=서울대병원/챗GPT 활용)이를 위해 연구팀은 BSS 기반 자기지도학습 다중 인코더 오토인코더(Multi-Encoder Autoencoder, MEAE) 구조를 활용했으며, 별도의 잡음 제거 필터링이나 데이터 선별 과정 없이 대규모 수면다원검사 공개 데이터베이스(MESA)의 광용적맥파 신호를 학습에 사용했다.이 결과 하나의 광용적맥파 신호는 여러 근원 신호로 분리됐고, 이 가운데 심장 박동 패턴이 가장 뚜렷한 신호를 선택해 심박수 분석에 활용했다.심박수 분석 성능은 심전도(ECG)로 측정한 기준 심박수를 바탕으로, 광용적맥파 원(原) 신호와 기존 신호 처리·분리 기법, 그리고 연구팀이 제안한 BSS 기반 MEAE 방법을 비교해 평가했다.평가 결과, 일상 활동 중 잡음이 포함된 광용적맥파를 측정한 9명의 피험자 데이터(총 108개 기록)에서 광용적맥파 신호를 그대로 사용했을 때보다 심전도 기준 심박수와의 오차(RMSE)가 14.4±10.6 bpm에서 4.9±5.1 bpm으로 감소했다. 심전도 기준 심박수와의 상관계수도 0.407에서 0.740으로 증가해, 심박수 변화 양상을 보다 잘 반영하는 것으로 확인됐다. 이러한 성능 개선은 수술 환자 데이터를 이용한 분석에서도 유사하게 나타났다.이번 연구는 잡음의 유형에 대한 사전 정보나 인위적인 잡음 증강 없이도, 광용적맥파 신호에서 심박수 분석에 적합한 근원 신호를 직접 분리해 활용할 수 있음을 확인한 결과다. 실제 임상 환경은 물론, 의료 목적의 웨어러블 기기에서도 보다 안정적인 심박수 분석에 활용될 가능성을 보여준다.이동헌 교수는 “이번 연구에서는 심박수 계산에 필요한 신호뿐 아니라, 호흡 등 심장 박동과 다른 생리적 리듬과 연관된 신호가 심장 박동 신호와 구분되어 나타나는 양상도 확인했다”며 “이는 인공지능이 정답을 미리 알지 않아도 신호의 구조적 차이를 스스로 학습할 수 있음을 보여준다”고 설명했다.한편, 이번 연구 결과는 생체공학 및 의료정보학 분야의 국제 학술지 ‘Computers in Biology and Medicine’ 최근호에 게재됐다.

Read more

[서울대학교병원]

서울대병원, AI 기반 가상 대장내시경 시뮬레이터 개발

2025-11-21

서울대병원, AI 기반 가상 대장내시경 시뮬레이터 개발
- AI 이용해 실제 대장내시경 환경 재현한 가상 시뮬레이터 ‘SeamXSim’ 개발- 현실적인 질감·색감·움직임 구현...대장 재현 정확도 향상, 영상 일관성 16% 개선대장내시경은 대장암 조기 진단과 용종 절제에 필수적이다. 하지만 시술 난이도가 높아, 숙련도에 따라 용종 검출률이 7.4%~52.5%까지 달라질 수 있다. 이에 대장내시경 검사를 훈련할 수 있는 가상 시뮬레이터 프로그램이 개발됐으나, 실제 대장과 차이가 커 교육적 효과는 제한적이었다. 최근 생성형 AI를 기반으로 실제와 유사한 질감·색감·움직임을 구현한 대장내시경 시뮬레이터가 개발돼, 내시경 술기 교육의 몰입도와 정확도를 높일 수 있을 것으로 기대된다.서울대병원 영상의학과 박창민·이동헌 교수(장승현·김이삭 연구원)와 소화기내과 임종필 교수팀은 대장내시경 영상을 학습시켜, 실제와 유사한 시각적 경험을 제공하는 AI 기반 내시경 시뮬레이터 ‘SeamXSim’를 개발했다고 20일 발표했다.연구팀은 실제 대장내시경 영상에서 추출한 1만 6천개의 이미지 조각을 바탕으로, 생성형 AI 모델을 학습시켜 사실적인 대장 텍스처를 구축했다. 이는 기존 시뮬레이터보다 실제 대장 구조와의 오차가 작고(3.6mm vs 5.6mm), 우수한 재현 성능을 보였다.나아가 ‘SeamXSim’에 기반한 비디오 생성 모델 ‘SeamXSim-T’도 추가 개발했다. 이 시스템은 실제 내시경 영상의 움직임·조명·프레임 구성을 학습하여 연속된 시야 변화를 구현할 수 있다. 이를 통해 프레임 끊김 없이 영상이 자연스럽게 이어지는 정도(일관성)를 기존 시뮬레이터 대비 16% 개선하고, 임상현장에서 보는 것과 같은 경험을 제공할 수 있다.임상적 유용성 검증을 위해 연구팀은 내과 전공의 8명을 대상으로 SeamXSim-T의 성능을 5점 척도로 조사했다. 시각적 현실성은 점막 질감, 혈관 패턴, 색감, 조명, 카메라 움직임에서 모두 4점 이상을 받았고, 교육 효과 평가(해부학적 구조 이해도, 병변 식별력, 임상 적용 가능성 등)에서도 긍정적 반응을 얻었다.박창민 교수는 “실제 내시경 환경과 유사한 시뮬레이터를 구현하고, 초보 시술자들이 충분히 반복 훈련할 수 있는 기반을 마련했다. 향후 내시경 시술자의 기술향상을 통해 진단능을 향상시키고, 환자 안전에 기여할 수 있을 것이라 기대한다”며 “용종 절제술 등 다양한 치료 상황을 시뮬레이터로 재현하고, 촉각 반응 내시경 하드웨어를 통합함으로써 더욱 효과적인 임상 훈련 환경을 만들 것”이라고 말했다.한편, 이번 연구는 대한의료인공지능학회 추계학술대회 우수발표상을 수상했으며, 국제학술지 ‘Computers in Biology and Medicine’ 최신호에 게재됐다.

Read more

[서울대학교병원]

김영현 박사과정 학생, 2025년 임상 데이터톤 대상 수상

2025-10-30

김영현 박사과정 학생, 2025년 임상 데이터톤 대상 수상
서울대병원은 지난 16일부터 18일까지, 임상데이터 기반 인공지능 개발 대회 ‘한국 임상 데이터톤 2025(Korea Clinical Datathon 2025)’을 성료했다고 밝혔다.‘임상 데이터톤’은 의료 분야의 인공지능 응용 활성화를 위해 서울대병원 국가전략기술 특화연구소에서 개최하는 데이터 처리 경진대회다. 서울대병원 헬스케어AI연구원, 서울대 의료빅데이터 연구센터, 의료인공지능 융합인재양성사업단이 공동 주최했다.올해 대회 주제는 ‘에이전틱 AI(Agentic AI in Healthcare: Navigating Risks, Realizing Benefits)’로, 스스로 판단하고 행동하는 자율형 AI의 의료 현장 적용 가능성을 탐색하는 데 초점을 맞췄다. VitalDB(세계 최대 생체신호 데이터셋), MIMIC(MIT 중환자실 빅데이터), K-MIMIC(국내 다기관 중환자실 빅데이터) 등 MIT와 협력해 비식별화와 번역 처리를 거친 글로벌 데이터셋을 바탕으로, 70명의 참가자가 팀을 구성해 AI의 의료 적용 과정에서 드러나는 위험성과 가능성을 탐구했다.대상은 ‘에이전틱 임상시험 모사: 실제 데이터 기반 증거 생성 자동화 파이프라인 구현 연구’를 수행한 팀이 차지했다. 이 팀은 임상시험의 설계부터 결과 보고까지 전 과정을 자동화하는 AI를 개발하고, 시간과 비용을 획기적으로 단축할 가능성을 제시해 높은 평가를 받았다. 최우수상 및 우수상은 각각 ‘자동화된 진단검사 결과 요약 및 인계 시스템’ 및 ‘발관(Extubation) 예측 모델의 정확도를 향상시키기 위한 LLM 피드백 에이전트’ 연구를 수행한 팀에게 주어졌다.

Read more

[전자신문]

서울대병원, 대장 용종 진단보조 AI 개발

2025-07-17

서울대병원은 영상의학과 이동헌 교수 연구팀이 국내 4개 의료기관과 공개 데이터셋에 등록된 약 3400건의 대장내시경 데이터를 활용해 대장내시경 컴퓨터 진단 보조 시스템 'ColonOOD'을 개발했다고 17일 밝혔다.
최근 국가암등록통계에 따르면 대장암은 국내 암 발생률 2위, 사망률 3위를 차지하는 주요 암종이다. 다만 대장내시경으로 용종을 신속하고 정확히 진단할 경우 대장암 사망률을 최대 53% 낮출 수 있다고 알려졌다. 대장 용종은 주로 '선종성 용종(고위험)'과 '과형성 용종(저위험)'으로 구분되며, 현재 대장내시경 검사에는 이런 유형을 신속하고 정확하게 진단하기 위해 컴퓨터 보조 시스템(CAD)이 도입되고 있다.기존 시스템은 대부분 용종을 2가지 주요 유형으로만 구분할 수 있어 발생 빈도가 드물거나 새로운 용종을 검출하는 데는 한계가 있었다. 따라서 학습한 적 없던 소수 유형의 용종 감지 기능(OOD)을 탑재해 의료진이 신뢰할 수 있는 결과를 제공하는 새로운 진단 보조 도구가 필요했다.이에 이동헌 서울대병원 영상의학과 교수와 김형신 서울대 데이터사이언스대학원 교수 연구팀은 대장내시경 영상을 바탕으로 용종의 위치와 유형을 자동으로 분류하는 진단 보조 시스템 'ColonOOD'을 개발했다. 이 시스템은 주요 용종의 분포를 학습해 소수 유형 용종의 분포를 검출하는 기능을 갖췄다. 또 용종 분류 시 기존 모델에서 제공되지 않았던 분류 결과의 신뢰 수준(High·Low)을 함께 제시함으로써 내시경 전문의의 정확한 의사 결정을 지원한다.이를 이용하면 1차적으로 고위험 용종을 분류해낼 수 있다. 그 외 유형일 경우 추가 분석 모델이 작동해 저위험 용종과 잠재적 위험이 있는 '소수 유형 용종'을 구분한다. 이 같은 분류 성능을 4개 의료기관(서울대병원 강남센터·서울아산병원·세브란스병원·이대서울병원)의 데이터와 2개 공개 데이터셋을 기반으로 검증한 결과, 전체 용종을 최대 79.7%의 정확도로 분류했다. 전체 소수 유형 용종 중 최대 75.5%를 정확히 검출하는 것으로 나타났다.이동헌 교수는 “이번 연구는 기존 AI 기반 대장내시경 진단 보조 시스템에 소수 유형의 용종 감지 모듈을 통합한 최초의 연구로, 임상의가 신뢰수준에 따라 진단 정확도를 크게 향상시킬 수 있을 것으로 기대한다”며 “향후 전향적 연구 및 다기관 연구로 확장하여 활용 가능성을 검증할 것”이라고 말했다.

Read more

[더메디컬]

"병원에 임상 빅데이터 넘치는데 AI연구자 턱없이 부족"

2023-11-26

이동헌 충남대병원 의공학과 교수는 “임상 의사로부터 공동연구 제안이 자주 오는 편이다”라고 말했다. 그는 지난 10월 24일 더메디컬과 만나 이같이 말하고 “인공지능(AI) 연구를 하는 전문가가 다른 분야에 비해 의료 분야에는 많지 않다. AI 기술이 먼저 돈이 되는 산업 분야로 쏠려있다. 의료 분야에 더 많은 AI 연구자들이 육성되어야 한다”라고 주장했다.이 교수가 임상 의사들과 진행 중인 공동연구 주제는 20가지가 넘는다. 이 교수 연구실은 충남대학교병원 옆에 있는 의과대학 건물 1층에 있다. 연구실 한 쪽 벽면에는 연구 진행 상황을 ‘developing(개발 중)’ ‘analyzing(결과 분석 중)’ ‘writing(논문 작성 중)’ 3단계로 분류해서 표시해 놓았다.◇2023 MICCAI 그랜드 챌린지란?=이 교수를 만난 건 그가 참여한 팀이 의료영상컴퓨팅 분야의 세계최고학회가 주최한 대회에서 입상했기 때문이다. 학회 이름은 ‘의료 영상 컴퓨팅 및 컴퓨터 지원 중재(Medical Image Computing and Computer Assisted Interventions, MICCAI)’이고, 학회는 캐나다 밴쿠버에서 지난 10월 8~12일에 열렸다. 이 교수는 “임상의도 참가하나, 공학 분야 학회라서 공학자가 많이 참석한다”라고 말했다. 의료영상 분야에서 세계 최대 규모의 학회는 북미영상의학회(RSNA)다. 매년 11월 말에 미국 시카고에서 개최되고 영상의학 분야의 임상의가 많이 참석한다.이 교수팀(오지은 박사, 백종탁 연구원, 이동헌 교수)은 ‘저선량 CT 인식 이미지 품질 평가 Grand Challenge(LDCTIQAC) 2023’에 참가했다. 저선량 CT 이미지를 고해상도로 복원하는 AI 알고리듬을 개발하는 내용으로, 대회는 4월 말부터 7월 말까지 진행되었다. 그의 팀은 최종 4위를 기록했다. 이 교수 설명을 옮겨본다.“환자에게 많은 양의 방사선을 쪼이면 CT 이미지 해상도가 좋아지지만, 환자에게 유해한 문제가 발생한다. 반대로 환자가 적은 양, 즉 저선량 CT를 찍으면 이미지 해상도가 떨어진다. 따라서 저선량 CT 이미지를 AI 기술을 이용하여 고해상도 이미지로 생성하는 연구가 주목받고 있다. LDCTIQAC는 2016년에 첫 대회가 열린 이래로 의료 분야에서 주목받고 있다. AI 기술이 해마다 발전하면서 저선량 CT 이미지를 고해상도로 복원하는 기술도 좋아지고 있다. 하지만 AI가 생성한 고해상도 이미지를 정량적으로 평가할 때, 수치는 높게 나오나, 방사선 전문가가 보면 그렇지 못한 경우가 있다. 따라서 이번 챌린지에서는 참가한 AI 모델을 여러 가지 평가 방법으로 점수를 계산했을 뿐 아니라, 방사선사가 평가한 점수와도 비교, 출품된 AI 모델에 순위를 매겼다.◇하버드대 의과대학 연구진과 공동연구=대회에는 저선량 CT 복원 연구 경험이 있는 미국 하버드 의과대학 매사추세츠 종합병원 첨단 의료 컴퓨팅 및 분석센터(Center for Advanced Medical Computing and Analysis, CAMCA) 김경상 교수의 제안으로 참가하게 되었다. 김경상 교수가 AI 모델 성능 개선을 위한 아이디어를 냈고, 이 교수 팀이 기술적으로 구현하는 실험을 하였다. AI 모델을 개발하여 대회 웹사이트에 제출하면 바로 점수를 확인할 수 있다. 중간 성능 결과는 좋지 않았고, 점차 알고리듬을 고도화했다. 최종 모델은 4위를 달성하였고, 이 교수는 “노력 대비 괜찮은 성과”라고 자평했다. AI 결과와 함께 제출한 초록은 MICCAI가 발행하는 학술지에 출판될 예정이다. 이 교수는 지난해 봄 보스턴의 하버드 의과대학을 방문, MOU(양해각서)를 체결한 바 있다. 그게 인연이 되어 이후 마취통증의학과 홍부휘 교수와 매달 하버드대학교 연구자와 온라인 미팅을 하며 공동 연구를 진행하고 있다. ◇충남대병원 빅데이터 센터=그는 충남대병원 빅데이터센터 부소장이기도 하다. 그는 “병원에는 임상 데이터가 산재하고, 연구에 적합한 형태로 처리 과정을 거치면 할 수 있는 연구는 무궁무진하다”라고 말했다. 충남대병원 빅데이터센터는 병원 의료진에게 의료 빅데이터 연구를 지원하고, 타 병원들과 함께 데이터를 구축하는 과제들을 하고 있다. 의료데이터중심병원 사업이 이에 해당한다. 그밖에 카카오브레인의 흉부 엑스선 이미지와 판독지를 이용한 초거대 AI 모델 개발에도 참여하였다. ◇대장 내시경 사진 AI 판독 연구=이 교수가 개인적으로 임상의사들과 협력해서 연구하는 건 무엇이 있나? 20여 개 중에서 한 두 개를 소개해달라고 요청했다. 이 교수는 “대장 내시경 영상을 AI 기술로 분석하는 몇 가지 연구를 진행하고 있다. 그중 대표적으로는 대장 내시경으로 발견한 용종 종류를 판단하는 AI 모델을 개발하는 것이다”라고 말했다.소화기내과 전문의는 대장내시경을 하면서 용종을 떼어내야 할지 말지를 결정해야한다. 선종(adenomatous polyp)은 대장암으로 발전할 수 있기 때문에 떼어내야 하지만, 과증식성 용종(hyperplastic polyp)은 놔두어도 무방하다. 국내에서는 용종을 일단 발견하면 떼어내는 편이지만, 미국에서는 용종 종류를 까다롭게 따진다. 떼내는 경우에는 추가적으로 고액의 병리 검사 비용이 발생, 환자에게 부담을 주기 때문이다.그는 박사과정 때(서울대 공과대학 협동과정 바이오엔지니어링 전공, 지도교수 김희찬) 서울대병원 소화기내과 진은효 교수와 공동연구를 한 바 있다.소화기내과 전문의 22명이 연구에 참여하였고 숙련도에 따라 세 그룹(초보자(전임의)와 내시경 전문가, 그리고 NBI 내시경 교육을 수료한 전문가)으로 구분하였다. 각각의 그룹은 환자 300명의 대장 용종을 진단하였고 AI가 실제로 얼마나 도움이 되는지 실험하였다. 그 결과 정확도가 초보자 그룹은 73.8%에서 85.6%로 올라갔고, 전문가 그룹은 83.8%에서 89%로, NBI 내시경 교육을 수료한 전문가 그룹은 87.6%에서 90.2%로 올라갔다. 이 교수는 “특히 AI가 내시경 초보자에게 도움이 많이 되었다. 의사가 전문가가 되기까지 10년 이상 걸리는 데 AI를 트레이닝 목적으로 활용하면 시간을 단축할 수 있을 것이다”라고 말했다. 연구 결과는 2020년 소화기학 분야의 최상위 학술지(Gastroenterology)에 실을 수 있었다. 논문은 출판된 후 에디토리얼(editorial)에서 언급되며 주목받았고, 서울대의대의 ‘이 달의 연구(SNU Medicine Research of the Month)’로 선정됐다. 우수 의생명학 분야 논문 추천 사이트인 한빛사에도 소개되었다.이와 관련 이 교수는 더메디컬과 만나기 이틀 전 서울에서 열린 대한의료인공지능학회 학술대회에서 ‘대장내시경인공지능 연구 동향’이란 제목으로 발표했다. 학회 발표에서는 최근의 연구 내용도 일부 발표했다. 의료진의 대장내시경 진단의 정확도를 높이기 위해 ‘베이지안 심층학습’ 기술을 적용했다. 실제 임상에서는 판단이 애매한(uncertain) 용종이 있기 때문에 AI도 ‘잘 모르겠다’고 판단하도록 ‘불확실성’을 정량화하는 연구다. 이 연구 역시 서울대병원 소화기내과 진은효 교수와 공동 연구를 하였고 논문을 작성 중에 있다.◇임상의사들과의 공동연구=충남대병원과는 마취통증의학과, 재활의학과, 성형외과, 흉부외과, 신경외과, 위장관외과, 내분비내과와 공동연구를 하고 있다. 서울대병원과는 영상의학과, 소화기내과, 피부과와 공동연구를 진행중이다. 이 교수는 “나는 AI 코어(core)를 연구하는 연구자가 아니라 ‘AI + X’를 연구하는 연구자이다. 이때 X는 응용 분야를 의미하는데, 내 경우에 X는 의료다”라며 “임상에는 아이디어가 있고 데이터도 있지만, 함께 연구할 AI 전문가가 부족하다. 수요 대비 공급이 턱없이 부족하고 AI 연구자들이 더 많이 육성되어야 한다”라고 말했다.출처 : 더메디컬(https://www.themedical.kr)

Read more