
서울대병원이 개발한 초거대 의료 인공지능(AI) 모델이 글로벌 오픈소스로 공개되며 임상 현장에서 축적된 의료 데이터와 진료 경험이 국제 연구 생태계로 확장되는 전환점이 마련됐다.
서울대병원(병원장 김영태)은 최근 원내 헬스케어AI연구원이 개발한 의료 특화 AI 모델 2종을 전 세계에 오픈소스로 공개했다고 9일 밝혔다.
이번에 공개한 모델은 흉부 엑스레이(X-ray) 영상을 분석해 판독문을 생성하는 영상 판독 AI ‘mvl-rrg-1.0’과 의료 추론에 특화된 거대언어모델 ‘hari-q2.5-thinking’이다.
두 모델은 실제 임상 현장에서 의료진이 수행하는 판단 과정을 보조토록 설계된 의료 특화 AI로 각각 의료영상 판독과 텍스트 기반 임상 추론에 활용된다.
이번 성과는 과학기술정보통신부의 ‘AI 연구용 컴퓨팅 지원 프로젝트’ 지원을 통해 이뤄졌다. 서울대병원은 의료분야 초거대 AI 모델을 개발하고, 연구 성과를 글로벌 수준으로 공개할 수 있는 역량을 인정받아 지원 대상으로 선정됐다.
서울대병원은 이 사업을 통해 약 4페타플롭스(PF·1초당 1천조 번 연산 처리)급 연산 성능을 가진 ‘H200 GPU’ 64장을 지원받아 대규모 의료데이터를 기반으로 한 고난도 AI모델 학습 환경을 구축했다. 이를 통해 텍스트와 의료영상이 결합된 초거대 의료 AI 모델 학습과 검증을 효율적으로 수행할 수 있게 됐다.
영상 판독 모델 mvl-rrg-1.0은 흉부 엑스레이 영상을 분석해 판독문을 자동으로 생성하는 AI다.
이 모델은 단일 영상 분석에 그치지 않고, 환자의 과거 영상과 현재 영상을 연결해 질병 진행이나 호전과 같은 시간에 따른 변화를 반영하도록 설계됐다. 약 36만 건 이상의 공개 의료 영상 데이터를 활용해 병변의 변화 양상을 추론할 수 있도록 학습했다.
그 결과, 영상만 입력하는 조건에서도 자연어 생성 성능 지표에서 우수한 성능( ROUGE-L 34.1, BLEU-4 18.6)을 기록했다. 이는 흉부 엑스레이 판독문 자동 생성 분야에서 국제적으로 최상위권에 해당하는 성능이다.
이 모델은 진료실과 응급실 환경에서 영상 비교와 판독 부담을 줄이는 데 활용될될 것으로 기대된다. 특히 진료실에서는 과거 영상과 현재 영상을 자동으로 비교해 병변 변화 정도를 정량적으로 제시해 환자에게 치료 경과를 설명하는 데 도움을 준다.
텍스트 기반 의료 AI인 hari-q2.5-thinking은 임상 상황을 이해하고 진단·치료 과정에 필요한 추론을 수행하도록 설계된 모델이다. 이 모델은 한국 의사국가고시(KMLE) 모의테스트에서 정답률 89%를 기록하며 의학적 사고 능력을 검증했다.
이 모델은 증상이 복합적으로 나타나 원인 판단이 어려운 환자 진료에서 의료진의 사고 과정을 보조하는 데 활용될 수 있다.
서울대병원은 이 모델을 기반으로 내과·외과·소아청소년과 등 17개 진료과별 특화 모델로의 확장을 추진하고 있으며, 현재는 여러 AI 모델이 역할을 나눠 판단을 보조하는 멀티에이전트 시스템 구축을 진행 중이다.
향후 임상적 검증이 완료되는 대로 진료과별 특화 모델을 순차적으로 공개해 국내외 의료진과 연구자가 활용할 수 있는 의료 AI 연구 기반을 확장할 계획이다.
이형철 헬스케어AI연구부원장은 “초고성능 GPU 인프라를 바탕으로 텍스트와 의료 영상을 함께 학습·추론하는 의료AI 연구가 가능해졌다”며 “특히 과거와 현재 영상을 비교해 환자 상태 변화를 파악하는 기능은 실제 임상에서 중요한 판단 요소인 만큼 이번에 공개한 모델들이 의료진 진료 판단을 보다 효율적으로 보조하는 데 활용될 수 있을 것”이라고 말했다.
(AI) .
( ) AI AI 2 9 .
(X-ray) AI mvl-rrg-1.0 hari-q2.5-thinking.
AI .
AI . AI , .
4(PF1 1 ) H200 GPU 64 AI . AI .
mvl-rrg-1.0 AI.
, . 36 .
, ( ROUGE-L 34.1, BLEU-4 18.6) . .
. .
AI hari-q2.5-thinking . (KMLE) 89% .
.
17 , AI .
AI .
AI GPU AI .