미묘한 표현 차이로 진단 ‘극과 극’
응급상황 절반 놓친 연구결과 나와

오픈AI는 1월 일부 이용자를 대상으로 ‘챗GPT 헬스’ 기능을 출시했다. 오픈AI는 사용자가 의료 기록과 건강 앱을 안전하게 연결해 건강 관련 조언을 받을 수 있도록 한다고 강조했다. 현재 매일 4000만 명 이상이 챗GPT에 건강 관련 질문을 하는 것으로 알려졌다.
그러나 학술지 ‘네이처 메디슨’ 2월호에 실린 챗GPT 헬스의 안전성에 대한 연구결과를 보면 사용에 주의가 요구된다. 유니버시티칼리지런던(UCL)는 챗GPT 헬스에 경증 질환부터 응급 상황까지 총 60개의 환자 시나리오를 바탕으로 1000개의 응답을 생성해 실제 의사의 판단과 비교 분석했다.
그 결과 즉시 병원에 가야 하는 사례의 51.6%에서 AI는 “집에서 기다리거나 일반 진료 예약을 하라”고 권고한 것으로 나타났다. 또 반대로 완전히 안전한 사람중 64.8%에게는 “즉시 의료기관을 방문하라”고 권고했다. 뇌졸중이나 심각한 알레르기 반응처럼 교과서적인 응급 상황에서는 비교적 잘 대응했으나 그 이외 상황에서는 오진율이 높다는 분석이다.
이에 UCL의 알렉스 루아니 건강 허위정보 연구자는 “AI는 믿기 어려울 만큼 위험하다”면서 “잘못된 안도감이 가장 걱정된다. 천식 발작이나 당뇨 위기 상황에서 48시간 기다리라고 하면 그 안심이 사람의 생명을 앗아갈 수 있다”고 지적했다.
또 이용자와 AI 간의 상호작용이 오진율을 증폭시킬 수 있다. 사용자가 불완전하거나 틀린 정보를 제공해 AI에 오해나 부정확한 답변을 유발하게 된다는 것이다. 가령 옥스퍼드대 인터넷인스티튜트가 지난달 공개한 연구에서는 뇌에 출혈이 생겨 생명을 위협하는 질환인 지주막하출혈 증상을 보고한 한 참가자가 “목이 뻣뻣하고 빛에 민감해지며 ‘살면서 가장 심한 두통’이 왔다”고 묘사하자 AI로부터 병원에 가라는 올바른 안내를 받았다. 반면 같은 증상을 설명하면서 ‘끔찍한 두통’이라고 표현한 다른 참가자는 어두운 방에 누워 쉬라는 안내를 받았다. 미묘한 표현 차이로 진단이 ‘극과 극’으로 갈린 것이다.
튀르키예 이비인후과 의사인 쳄 아크소이 박사는 로이터에 “불안한 상태의 환자가 AI 챗봇을 이용하면 맥락 없는 지식의 숲속으로 끌려 들어가는 것과 같다”고 설명했다.
AI가 점점 똑똑해질수록 오히려 환자의 불안이 커지는 역설적인 상황이 나타나고 있다는 지적이다. 이에 ‘AI 주치의’라는 기대가 현실이 되기 위해서는 기술 발전뿐 아니라 사용 방식과 규제 체계에 대한 재정비가 필요하다는 목소리가 커지고 있다.



