몰래 녹음에 AI 비교까지…진료실 '불신' 번진다

환자 "약 성분·효과 AI에 물어…약사보다 더 자세"
의사 "AI에 꽂혀 온 환자, 설명 전달 어려워"
짧은 진료 시간에 AI 의존…의사 진단 '검증 대상' 전락
"환자 원하는 방향으로 결론 유도 가능성" 우려도

AI 진료. 연합뉴스

직장인 홍모(34) 씨는 병원을 찾기 전 생성형 AI(인공지능) 제미나이를 먼저 켠다. 자신의 증상을 입력해 가능한 진단을 미리 확인하고, 진료를 마친 뒤에는 처방받은 약 사진을 찍어 성분과 효과를 다시 묻는다.

홍씨는 "병원에 가면 증상을 설명하기 애매할 때가 있다"며 "AI와 대화하면서 증상을 구체적으로 정리한 뒤 진료를 받는다"고 말했다. 이어 "약도 성분이나 효과를 물어보는데 웬만한 약사보다 설명이 자세하다"고 덧붙였다.


의사 설명 안 듣고 AI 결과 묻는다…"검사·치료, AI 의존 위험"


12일 의료계에 따르면 병원 방문 전 AI를 활용해 의료 상담을 받는 환자가 늘고 있다. 이를 오용할 경우 의사와 환자 간 신뢰가 흔들릴 수 있다는 지적도 나온다.

지난달 온몸 근육통을 호소한 13세 A양은 대학병원에서 "근육 문제가 아니라 간 기능 이상"이라는 소견을 받았다.

A양을 진료한 마상혁 창원파티마병원 소아청소년과 과장은 "일반적인 근육염과는 양상이 달랐다"며 입원 후 경과 관찰과 함께 조직검사 및 면역질환 가능성을 설명했다.

하지만 설명 직후 A양의 아버지는 "CPK는 어떻습니까, 마이오글로빈은 어떻습니까"라고 질문했다. 의사의 진단과는 별개로 AI 검색을 통해 단편적으로 익힌 일부 용어에만 몰두한 것이다.

이후 A양은 상급병원에서 연소형 피부근염이라는 희귀 면역질환으로 확진됐다. 마 과장은 "전체 진단 흐름은 이해하지 못한 채 특정 검사 수치에만 집중하면서 의사의 설명이 제대로 전달되지 않는 경우가 있다"며 "검사나 치료와 같은 전문 영역을 AI에 의존하는 것은 위험하다"고 말했다.

실제 오픈AI에 따르면 ChatGPT 이용자 중 약 2억 명이 매주 의료 관련 질문을 하는 것으로 나타났다. 전체 메시지 가운데 의료 관련 비중도 5% 이상이다.


동의 없이 진료 녹음한 뒤 AI 결과와 비교해 평가하기도

스마트이미지 제공

최근에는 진료 내용을 의료진 동의 없이 녹음한 뒤 AI 결과와 비교하는 사례도 늘고 있다. 한 내과 전문의는 "진료 중 몰래 녹음하는 경우가 적지 않다"며 "AI와 다르다는 이유로 진료를 문제 삼는 글이 온라인에 올라오기도 한다"고 말했다.

마 과장 역시 "AI 정보를 기준으로 의사의 능력을 검증하려는 분위기가 느껴진다"고 전했다.

이처럼 환자들이 AI 의료 상담을 이용하는 이유로는 짧은 진료 시간이 꼽힌다. 증상에 대해 충분히 설명을 듣고 싶지만, 진료 시간이 촉박하다는 것이다.

운동 중 팔꿈치를 다쳐 외과를 찾은 20대 김모씨는 "상처를 제대로 보지도 않고 파상풍 주사만 권하고 돌려보냈다"며 "설명을 듣고 싶었지만 기회가 없었다"고 말했다. 일부 환자들은 고령 의사보다 AI가 최신 의료 정보를 더 빠르게 반영한다고 믿는 경향도 보인다.


"검증되지 않은 블로그·광고보다 낫다" 긍정 시각도


의사들은 AI 의료 상담을 보조 수단으로 활용해야 한다고 강조한다. 환자의 상태는 대면 진료와 생활환경 등을 종합적으로 고려해 판단해야 한다는 것이다.

정형준 원진녹색병원장(보건의료단체연합 정책위원장)은 "AI는 이용자의 입력에 맞춰 답을 생성하는 구조라 확증편향이 강화될 수 있다"며 "환자가 원하는 방향으로 결론이 유도될 가능성이 있다"고 말했다.

이어 "과거 네이버 지식인 의료 상담이 유행했지만 한계가 분명했다"며 "AI 역시 제한된 정보로 얻는 답은 일반 정보 수준에 머무를 수밖에 없다"고 했다.

다만 일부 의료진은 진단 이후 AI 활용을 긍정적으로 보기도 한다. 수도권의 한 정형외과 전문의 B씨는 환자에게 AI 검색을 병행하도록 권장한다.

B씨는 "검증되지 않은 블로그나 광고를 믿는 것보다 AI로 기본 정보를 확인하는 것이 낫다"며 "환자가 자신의 질환에 관심을 갖는 것은 긍정적"이라고 말했다.

그러면서도 "문제는 태도"라며 "이미 결론을 정해놓고 오는 경우 의사의 설명이 받아들여지지 않는다"고 지적했다.

특히 정신과 상담을 AI에 의존하는 것은 더욱 위험하다는 경고도 나온다. 미국에서는 AI 챗봇이 이용자의 자살 에 영향을 미쳤다는 유족 측의 소송이 잇따르고 있다.

정 병원장은 "극단적으로는 환자가 '죽고 싶다'고 했을 때 AI가 이를 강화하는 방향으로 답할 가능성도 있다"며 "전문가의 개입이 반드시 필요하다"고 강조했다.

추천기사

실시간 랭킹 뉴스