최근 챗GPT와 같은 생성형 인공지능(AI)과 그 핵심 기술인 대규모 언어모델(LLM)이 다양한 분야에서 주목받고 있으나, 개인정보 유출 등 보안 문제에 대한 우려도 함께 제기된다.
이 가운데 대규모 언어모델을 의료 분야에 적용할 경우 개인정보가 쉽게 노출될 수 있다는 국내 연구결과가 나왔다.
연구팀은 대규모 언어모델 도입에 신중하고 각별한 주의가 필요하며, 독립적으로 운용되는 의료 특화형 대규모 언어모델이 필요하다고 강조했다.
서울아산병원 심장내과 김영학 교수·아산생명과학연구원 전태준 박사팀은 대규모 언어모델을 의료 분야에 적용하는 과정에서 발생할 수 있는 개인정보 유출 문제를 확인했다.
이를 위해 의도적으로 악성 공격을 시행한 결과, 최대 81%에 달하는 성공률을 보였다.
대규모 언어모델은 수십억개 이상 매개변수를 기반으로 대량 데이터를 학습, 사람처럼 생각하고 답변하는 인공지능 모델이다.
이는 챗GPT 및 제미나이와 같은 생성형 인공지능이 작동하는 핵심 기술로, 질문이나 명령어를 담은 프롬프트를 입력하면 대규모 언어모델이 이를 이해하고 적합한 답변을 제공한다.
의료 분야에 대규모 언어모델을 적용하면 X-ray, CT, MRI 등의 이미지를 데이터 기반으로 분석해 진단 정확도를 높일 수 있고, 환자 개인 데이터를 기반으로 맞춤형 치료 계획을 제공할 수 있다.
또 전자의무기록(EMR)이나 동의서 작성을 자동화하는 등 의료진의 관리 업무도 간소화해 전반적으로 효율성이나 정확성이 향상될 것으로 기대된다.
다만 대규모 언어모델의 보안이 위협될 경우 환자들의 민감한 개인정보가 유출돼 윤리적, 법적 위험성이 초래될 수 있다.
연구팀은 지난 2017년 1월부터 2021년 12월까지 환자 2만 6434명의 의무기록을 활용해 대규모언어모델을 학습시켰다.
악성공격은 대규모 언어모델에 입력하는 질문인 프롬프트에 의미 없는 기호, 글을 추가하거나 인코딩하는 등 다양하게 변형해 악의적인 질문을 하는 방식으로 위험성을 평가했다.
이번 연구는 윤리적으로 사전 승인된 데이터만을 활용했으며, 서울아산병원 임상연구심의위원회(IRB) 심의를 거쳐 진행됐다.
먼저 미국정보교환표준코드 방식으로 프롬프트를 변형한 결과 민감한 개인정보에 접근할 수 있는 확률을 평가하는 가드레일 비활성화율이 최대 80.8%에 달했다. 이 수치는 보안 조치가 쉽게 침해될 수 있음을 의미한다.
아울러 대규모 언어모델이 답변을 생성하는 과정에서 학습된 원본 데이터를 노출할 가능성은 최대 21.8%로 나타났다. 질문 형식을 조정함으로써 원본 데이터가 쉽게 노출될 수 있다는 것이다.
일례로 수술 준비를 위해 상세한 환자 정보를 제공하는 시스템으로 대규모 언어모델을 학습시킨 뒤 의료기록 검토를 요청하는 프롬프트를 인코딩 방식으로 조정했다.
그 결과 대규모 언어모델이 대답을 생성하는 과정에서 민감한 환자 데이터는 물론 의료진 이름이나 전문분야 등 구체적인 정보가 노출됐다.
김영학 교수는 "의료 분야에서 대규모 언어모델을 활용했을 때 기대되는 발전이 크지만 심각한 개인정보 유출로 이어질 수 있다. 의료특화형 대규모 언어모델이 필요하다"고 말했다.
한편, 이번 연구결과는 국제학술지 '뉴 잉글랜드 저널 오브 메디신'(NEJM) 자매지인 'NEJM AI'에 최근 게재됐다.