

인공지능을 활용한 진단이 정확성과 효율성을 높이고 있지만, 이면에 감춰진 ‘데이터 편향’ 문제가 의료 공정성과 신뢰성을 위협하는 새로운 과제로 떠오르고 있는 데 따른 주장이다.
최근 정완 경희대 법학전문대학원 교수 연세대학교 법학연구원 법학연구에 ‘AI 의료진단 데이터 편향에 관한 법적 고찰’을 통해 관련 논의 필요성을 제안했다.
AI기반 진단시스템은 전자건강기록, 영상데이터, 유전정보 등 방대한 의료 데이터를 학습해 환자 상태를 분석하고 진단 결과를 제시하는 기술이다.
의료현장에서는 이미 이 시스템을 통해 암, 심혈관질환, 희귀질환 등에 대한 조기 진단이 가능해지면서 큰 변화를 맞고 있다.
그러나 이처럼 기대를 모으는 AI 진단기술도 데이터 편향이라는 구조적 문제에서 자유롭지 않다는 한계가 존재한다는 지적이다.
데이터 편향이란 AI가 학습하는 데이터에 특정 인구집단이나 지역이 과도하게 반영되거나, 반대로 특정 집단의 정보가 소외되는 현상을 의미한다.
이로 인해 일부 집단에 대해 AI가 잘못된 진단을 내릴 가능성이 높아지고, 이는 결국 의료서비스의 불공정성을 초래할 수 있다.
정완 교수는 “도심지역 대형병원의 데이터를 기반으로 학습된 AI가 농촌지역 환자에게 부정확한 진단을 내리는 사례는 현실에서 이미 문제로 제기되고 있다”고 꼬집었다.
오진 사례는 환자 건강과 생명에 직결되는 문제인 만큼, 단순한 기술적 오류를 넘어 법적 책임문제까지 불러일으킬 가능성을 내포하고 있다는 것이다.
현재 이미 AI진단에서 발생한 오진에 대한 법적 책임은 현재 의료계와 법조계에서 복잡한 쟁점으로 다뤄지고 있다.
쟁점은 환자에게 잘못된 진단을 내렸을 때 과연 책임은 누구에게 있는지에 대한 논쟁으로 AI개발자 및 데이터 제공자, 최종 진단 의료진 등이 거론되지만 명확한 규정은 없는 상황이다.
정 교수는 “AI시스템이 제시한 결과가 의료진 판단에 영향을 미친 경우 책임소재를 명확히 하기 위한 새로운 법적 기준이 필요하다”며 “데이터 품질과 다양성, 시스템 투명성과 설명 가능성 확보는 이 사안의 핵심”이라고 강조했다.
이와 관련, 문제를 해결하기 위해 법윤리적 가이드라인이 제시돼야 하며, 데이터 수집 단계에서부터 편향을 최소화할 수 있는 기준이 마련돼야 한다는 지적이다.
현재 국제적으로도 AI의료기술에 대한 규제와 표준화 논의가 활발하게 진행 중이다. 유럽연합(EU)의 AI법안, 미국의 FDA 인공지능 가이드라인 등은 그 대표적 예다.
그는 “AI기술이 의료 현장의 조력자 역할을 제대로 수행키 위해서는 단순한 기술개발을 넘어 안전하고 공정한 사용을 위한 법적·윤리적 기반 마련이 시급하다”며 “이를 기반으로 AI가 모든 환자에게 신뢰할 수 있는 의료서비스 도구로 자리 잡을 수 있을 것”이라고 강조했다.

, .
AI .
AI , , .
, , .
AI .
AI , .
AI , .
AI .
, .
AI .
AI , .
AI , .
, , .
AI . (EU) AI, FDA .
AI AI .