의료 인공지능 최종 결정 책임은 '의사'
한국보건의료연구원, LLM·LMM 기반 '첫 생성형 AI 활용 원칙' 제시
2026.01.07 15:49 댓글쓰기



한국보건의료연구원(원장 이재태, 이하 NECA)은 의료 현장에서 빠르게 확산되고 있는 생성형 인공지능(AI)에 대해 'AI를 잘 만드는 것이 아니라, 잘 사용하는 것'을 목표로 '의료 분야 생성형 인공지능 적정 활용 원칙'을 발표했다고 7일 밝혔다.


최근 대규모 언어모델(LLM)과 다중모달모델(LMM)을 기반 생성형 AI는 의료 현장에서 폭넓게 활용되고 있다. 


그러나 기술 활용이 확대될수록 환자 안전를 비롯해 개인정보 보호, 의료 판단에 대한 과신, 책임 소재와 같은 쟁점도 제기되고 있다. 여기에 제도적 규제만으로는 실제 이용 행태와 다양한 적용 환경을 충분히 포괄하기 어렵다는 한계도 지적되고 있다.


이에 NECA는 2025년 원탁회의 주제를 '의료 AI'로 선정하고, 두 차례에 걸쳐 의료인·연구자·산업계·법·정책 전문가 및 국민참여단과 함께 의료 AI 적정 활용 원칙에 대해 논의했다.


이 원칙은 기술 규제나 세부 가이드라인을 제시하기보다는 의료 AI를 사용하는 모든 주체가 공유해야 할 '사회적 약속'에 초점을 두고 있다. 


원칙은 ▲개발자·서비스 제공자 ▲의료인 ▲국민(이용자) 등 세 주체별 핵심 역할과 실천 원칙으로 구성된다.


개발자·서비스 제공자는 의료 AI를 신뢰할 수 있는 기술과 서비스를 설계·제공하는 주체로서, 환자 안전과 투명성 확보, 공정성·설명 가능성 강화, 인간 감독 내재화(Human-in-the-loop) 등을 핵심 원칙으로 제시했다. 


오류 발생 시 신속한 개선과 정보 공개, AI 생성 결과의 명확한 표시, 정보취약층을 고려한 쉬운 말 모드와 필수 정보 자동 확인 등 접근성 강화 책임도 포함됐다.


의료인은 AI를 임상 판단을 돕는 참고 도구로 활용하되, 최종 의사결정 책임은 의료인에게 있음을 분명히 했다. 


이를 위해 보조적 활용 원칙 및 근거 기반 검증, 환자 중심 설명과 동의, 오류 예방과 학습, 지속적인 디지털 역량 강화를 핵심 실천 원칙으로 제시했다.


국민(이용자)은 AI를 자신을 보호하고 판단하는 보조 도구로 인식하고 자율과 책임, 안전한 사용, 개인정보 보호, 비판적 이해를 핵심 원칙으로 제시했다.

 

특히 응급·고위험 상황에서는 AI의 답변만으로 판단하지 말고 즉시 의료기관을 이용토록 했으며, AI가 이상하거나 불편한 답변을 할 경우 사용을 중단하는 등 생활 속 실천 수칙도 제시했다.


이재태 원장은 "의료 AI는 국민 건강 증진을 위한 중요한 기회인 동시에 잘못 활용될 경우 의료 신뢰를 훼손할 수 있는 위험도 함께 가지고 있다"며 "이번 원칙은 규제를 넘어 의료 현장에서 실제로 참고할 수 있는 공공적 기준으로서 의미가 있다"고 밝혔다. 



?( , NECA) (AI) 'AI , ' ' ' 7 .


(LLM) (LMM) AI . 


, , . .


NECA 2025 ' AI' , AI .


AI ' ' . 


() .


AI , , , (Human-in-the-loop) . 


, AI , .


AI , . 


, , , .


() AI , , , .

 

AI , AI .


" AI " " " . 

1년이 경과된 기사는 회원만 보실수 있습니다.
댓글 1
답변 글쓰기
0 / 2000
  • ㅇㅇ 01.08 11:13
    AI는 돈을 물어줄 수 없기 때문