생성형 인공지능(AI) 서비스 챗GPT가 대중에게 공개된 이후 산업계 전방위에서 AI를 접목한 기술 개발에 한창이다.쏟아지는 논문을 보면 알 수 있듯이 각 산업에서도 논문을 참고해 AI를 활용하기 위한 방법을 찾기 위해 고군분투 하고 있다. 이미 AI를 접목시켜 주가가 급등하는 기업도 속출하고 있다.
특히나 보건의료 산업에서 AI는 의학 연구와 임상진료, 공중보건, 의료행정 등 전(全) 분야에 적용될 수 있다. 한국에선 소위 빅 5병원 의료정보와 AI 기술이 만나 큰 발전 가능성이 점쳐진다.
문제는 AI 기술 발전에 따른 우려가 적지 않다. 의료인 역할 대체가 바람직한지에 대한 의문부터 개인정보 보호의 문제, AI 할루시네이션(환각, 허위정보 생성), 의료 신뢰성 등이 그것이다.
최근 보건산업정책연구포럼을 통해 이일학 연세대학교 의과대학 의료법윤리학과 교수와 만난 자리에서 그는 의료 AI 산업화와 윤리에 대해 자신의 생각과 향후 정책방향을 제언했다.
이 교수는 의료 AI에 있어 단순히 고강도 규제 방식으론 성장을 도모하기 어렵다고 봤다. 그러면서 새로운 형태의 의료AI 거버넌스 체계에 대한 관심과 필요성에 대해 목소리를 냈다.
산업계·의료계 '의료 AI' 시각 차이 극복 위한 고차원적 규제 필요
현재 의료 분야에서 AI는 영상의학, 병리학 등 특정 분야에서 두드러지는 경향이 크다.
실제로 암 진단 및 흉부 X-ray를 통해 비정상 소견을 진단, 검출 보조하는 솔루션으로 최근 급부상한 루닛도 영상의학에 최적화 된 회사 중 하나다.
하지만 의료산업 자체가 규제가 필요한 산업일 뿐만 아니라 의료데이터를 확보하는 데 있어서도 규제가 걸림돌이다. 기업 입장에선 주요 병원들은 물론 정부 당국과 협업이 필요한 게 현실이다.
이일학 교수는 “의학이 산업화하는 과정에서 법이 도움이 되는 측면이 있고 도움되지 않는 측면이 있다”며 “과연 ‘법(규제)’이 도움이 되는가에 대한 논의를 하기 위해 의료AI 윤리를 곱씹어봐야 한다”고 말했다.
그러면서 “산업 영역과 보건의료 영역은 일치하지 않는 가치관과 행동, 관습을 가지고 있다”며 “산업계는 현실성·효과성·보상이 우선이지만, 보건의료는 과학성·창조성·혁신성을 우선한다”고 분석했다.
기업은 기술에 있어 경제성, 독점 가능성, 보상을 중요하게 생각하지만 보건의료 영역에선 기술 회의적인 태도를 겸비하고, 해당 연구가 타당한 사고 방식을 거치는지가 우선된다.
이 교수는 우선순위가 다르기 때문에 이해 관계에 있어서도 충돌이 일어날 수 밖에 없고, 이 둘을 연결하는 작업이 필요하다고 봤다. 그게 윤리적 장치다.
그는 “과학자는 개발을 하고, 보건의료연구원 등 중간에 있는 사람들은 산업계와 의료 영역을 연결하는 작업을 해야 한다”면서 “이런 태도들 사이에서 우리는 무엇을 해야하는지 고민이 필요하다”고 설명했다.
이어 “정책을 어떻게 만들고 어떤 내용을 포함할 것인가, 어떤 기술을 의료체계 내에 도입할 것인가 등 보건의료계의 다양한 입장이 있기 때문에 단순하게 접근해선 안된다”고 강조했다.
그러면서 “산업화가 이윤추구로 귀결되기 때문에 필시 부정적이라는 것도 편향적 사고”라며 “가치가 있는 것이 산업계 관심 밖으로 나가는 경우 모든 영역에서 발전 자체가 더뎌질 때가 많기 때문”이라고 덧붙였다.
"전문가 등 이해 당사자 고려 '의료 AI 가이드라인' 필요"
관리자 ‘위험 관리’, 연구자 ‘가치 제시’, 사용자 ‘신뢰 근거’
의료행위가 산업과 융합되는 상황이 잦아지고 있다. 그래서 기술 발전에 따른 환경 변화에 맞춰 새로운 형태의 가이드라인이 필요하다는 지적도 꾸준히 나온다.
이 교수는 “의료 분야에서 AI 알고리즘 정확성은 환자 생명, 신체 안전에 직결될 수 있기 때문에 특별한 의미를 갖는다”며 “AI 기반 소프트웨어의 업데이트 등은 물론 보다 나은 의료서비스에 대한 기대감을 충족시켜야 한다”고 말했다.
그러면서 “의료인과 산업 융합 과정에서 우리는 어떻게 균형을 맞춰야 할지 고민해야 한다. 문제들은 정리가 돼가고 있다. 예컨대 윤리에 있어 개인정보가 큰 비중을 차지하는 것은 대부분이 알고있다”고 설명했다.
특히 그는 “의료 AI 윤리적 도구는 지금 단계에서 무엇을 하고 어떻게 실천이 가능한지 질문이 필요하다”라며 “단순히 시중에 널려있는 광범위한 윤리적 가이드라인은 보기만 해도 숨 막힌다. 새로운 형태의 가이드라인이 필요하다”고 강조했다.
이 교수는 각계 다양한 이해 당사자 관점을 고려한 합리적 규제와 윤리 가이드라인이 필요하다고 봤다.
이 교수는 “의료 AI 규제와 관련한 현행 법규는 종종 다른 목적의 기술을 다루는 것이기 때문에 개발자와 보건의료기관 현실을 반영한 규율체계가 필요하다. 또한 산업계와 학계가 윤리에 관심을 갖는다고 기술 혁신이 지체되지 않는다고 본다”고 말했다.
그러면서 “윤리적 인공지능(AI) 개발 과정에 대한 가중치, 공중보건과 같은 공정 연구에 있어 윤리적 연구 지원이 필요하다”며 “AI 투명성, 설명가능성, 편향가능성, 책임성, 신뢰, 안전성 등 종합적 검토와 규제, 거버넌스 체계가 마련돼야 한다”고 강조했다.
이 교수는 이를 마련하기 위한 방법으로, 이해 관계자 관점에서 윤리에 대한 인식을 갖고 시작하면 좋다고 제언했다.
이 교수는 “관리자인 조직을 유지하는 사람들 입장에서 윤리는 ‘위험관리’, 연구자 입장에서는 가치를 의미있게 만들고 전달하는 ‘가치 제시’, 임상가 등 사용자 입장에서는 ‘신뢰 근거’가 된다는 점을 고려해야 한다”고 밝혔다.