
의외로 과학의 대답은 “그렇다”에 가깝다. 2025년 의학저널 NEJM AI에 게재된 하인즈(Michael V. Heinz) 연구팀의 무작위 대조 실험에 따르면, 생성형 AI 챗봇을 활용한 8주간의 개입은 우울 증상 감소에서 0.8이라는 높은 효과 크기(Cohen’s d)를 기록했다. 이는 단기적 개입에 한해, 숙련된 인간 치료자의 평균적 개입 효과에 근접하는 수치다.
국내에서도 비슷한 결과가 나왔다. 고려대와 UNIST 연구팀은 AI 소셜 챗봇과의 대화가 대학생들의 외로움과 사회적 불안을 2~4주 만에 유의미하게 낮췄다고 보고했다. 이 결과가 의미하는 바는, AI가 치료자라는 뜻이 아니다. 오히려 구조화된 개입이 ‘언어적 상호작용’이라는 형태로 제공될 때 임상적으로 의미 있는 변화가 나타날 수 있음을 시사한다. 즉 효과는 ‘AI의 영혼’이 아니라 설계된 개입, 접근성, 반복성 같은 조건에서 나온다.
영혼 없는 기계는 어떻게 인간을 위로할 수 있을까. 역설적으로, AI가 사람이 아니기 때문이다. AI는 판단하지 않고, 지치지 않으며, 같은 이야기를 반복해도 표정을 바꾸지 않는다. 거대언어모델은 타인의 감정을 논리적으로 추론하는 인지적 공감 능력에서 이미 인간 평균을 넘어섰고, 슬픔의 원인을 분석해 가장 적절해 보이는 위로의 문장을 즉각 계산해 낸다. 2026년 초, 예루살렘 히브리 대학과 구글 리서치 팀은 인간이 이야기를 들을 때 뇌에서 발생하는 신경 활동의 타이밍이 최신 거대언어모델의 내부 처리 순서와 놀라울 정도로 일치한다는 연구 결과를 발표했다. 인간의 뇌가 단어를 처리하고 의미를 구성하는 ‘시간적 안무’를, 실리콘 칩 위의 알고리즘이 그대로 따라가고 있었던 것이다.
그러나 이 정교한 거울에는 분명한 균열이 있다. 인간과 AI가 언어를 이해하는 방식은 결정적으로 다르다. 인간의 뇌는 말을 들을 때 단어의 뜻만 해석하지 않고 상황을 실제로 겪는 것처럼 시뮬레이션한다. 사람이 “물건을 잡는다”거나 “요리를 한다”는 문장을 읽을 때, 실제로 손을 움직일 때 쓰이는 운동 피질과 감각 영역이 함께 활성화된다. 예를 들어 “버터를 끓인 뒤 병에 담는다”는 말을 들으면, 인간의 뇌는 무의식적으로 뜨거운 열기와 녹아 흐르는 질감을 떠올린다. 동시에 액체는 평평한 접시가 아니라 오목한 용기에 담아야 한다는 물리적 상식을 즉각 불러낸다. ‘버터’가 단순한 단어가 아니라, 녹으면 흐르고, 만지면 미끄럽고, 맛과 냄새가 함께 따라오는 체화된 경험의 묶음이기 때문이다.
반면 텍스트로만 학습한 AI에게 버터는 실체가 아닌 감각이나 무게가 없는 수학적 좌표다. AI가 “버터를 끓인 뒤 병에 담으세요”라는 문장을 이해하는 척할 수 있는 이유는, 수많은 요리 텍스트에서 “끓인 액체” 다음에는 “접시”보다 “병”이나 “컵”이 나올 확률이 높다는 통계적 패턴을 학습했기 때문이다. 만약 학습 데이터에 “버터를 끓여 접시에 붓는다”는 문장이 충분히 많았다면, 그것이 현실에서는 엉망이 될 것이라는 사실을 모른 채 그대로 권할 수 있다. AI는 언어의 표면적 패턴을 정교하게 모방하고 현실의 물리적 반응도 영상으로 생성하지만 현실 세계에서 해봤을 때 틀리다는 피드백을 몸으로 학습하는 루프가 없다는 점이다.
문제는 이 한계를 우리가 쉽게 잊는다는 데 있다. AI의 친절함은 위험할 정도로 매끄럽다. 때문에 AI의 위로가 감정의 공명이 아니라 연산의 결과임을 인식하는 거리두기가 필요하다. 여기서 ‘AI가 기계라는 걸 안다’와 ‘AI를 도구로 유지한다’는 비슷해 보이지만 다르다. 전자는 인지적 사실이고, 후자는 사용 전략이자 자기조절이다. 사람들은 SNS가 알고리즘이라는 걸 알면서도 감정적으로 휘말리고, 도박이 확률 게임이라는 걸 알면서도 기대를 건다. AI를 ‘알고 있음’에서 나아가 관계의 위치를 ‘도구’로 고정시키는 심리적 훈련이 필요하다. 이것이 스스로 인간의 존엄를 지키는 AI 리터러시다.
한유진 | CASA 융합심리연구소 소장 | 한국아동미술치료학회 교수



