
‘알렉사’에게 마음 가장 깊은 곳의 불안감을 털어놓거나, 유난히 힘든 하루를 보낸 날 ‘시리’에게 위로를 구할 수 있을까?
스마트 스피커나 웹사이트, 앱의 챗봇에 질문을 던지는 경우가 점점 더 많아지고 있다.
인공지능(AI) 소프트웨어로 구동되는 이런 시스템들은 점점 더 정교해지면서 꽤 괜찮은 수준의 자세한 답변을 제공하기 시작했다.
그러면 이런 챗봇이 사실상 심리치료사의 역할을 할 만큼 인간과 아주 비슷해질 수도 있을까?
컴퓨터 프로그래머 유지니아 쿠이다는 미국 챗봇 앱 ‘레플리카’를 만들었다. 이 앱은 사용자에게 “항상 귀 기울이고 대화하며 언제나 내 편이 되어주는 AI 동반자”를 제공한다고 한다.
2017년 출시된 레플리카는 현재 2백만 명 이상의 실제 사용자를 확보했다. AI는 대화를 통해 학습하기 때문에 각 사용자마다 고유한 챗봇 또는 ‘레플리카’가 있다. 사용자는 자신의 챗봇을 위한 만화 캐릭터 아바타를 직접 디자인할 수도 있다.
쿠이다는 “실제 사람과 대화하기 전에 연습을 하려는” 자폐 스펙트럼 장애 아동부터 단순히 외로워서 친구가 필요한 성인에 이르기까지 앱의 사용층이 다양하다고 설명한다.
그 밖에도 면접 연습, 정치 담론, 심지어 결혼 상담에도 레플리카를 사용한다는 것이다.
레플리카는 주로 친구나 동반자 역할을 하도록 설계됐지만, 사용자가 “더 나은 습관을 만들고 불안을 줄일 수 있도록” 돕는 등 정신 건강에도 도움이 될 수 있다고 강조한다.

세계보건기구(WHO)에 따르면 전 세계 약 10억 명, 즉 인구 10명 중 1명 이상이 정신장애를 앓고 있다.
WHO는 “도움이 필요한 사람들 중 극소수만이 효과적이고 저렴한 양질의 정신건강 서비스를 이용할 수 있다”고 덧붙였다.
본인이나 가까운 가족이 정신건강에 문제가 있다면 물론 우선적으로 의료 전문가를 찾아야 하지만, 챗봇 정신건강 치료사의 성장이 많은 사람들에게 유용한 도움을 제공할 수도 있다.
영국 심리학회 회원인 폴 마스덴 박사는 정신건강 개선을 목표로 하는 앱이 도움이 될 수 있지만, 적절한 앱을 찾았을 때만 제한적으로 도움이 될 것이라고 말한다.
“제가 찾아보니 불안증 관련 앱만 300개가 있던데, 어떤 앱을 사용하면 좋을지 어떻게 알 수 있을까요?”
“앱은 대면 치료의 보조 수단으로만 사용해야 합니다. 앱이 대면 치료를 대체할 수 없다는 것이 중론입니다.”
하지만 이와 동시에 마스덴 박사는 치료용 챗봇을 더 효과적으로 만들 수 있는 AI의 저력에 대해 기대가 크다며 “정신건강 지원은 대화 치료에 기반하는데, 대화야말로 챗봇의 역할”이라고 덧붙였다.
마스덴 박사는 최근 화제가 되고 있는 챗GPT의 개발사 ‘오픈AI’와 같은 선도적인 AI 챗봇 기업들이 자사 기술을 외부에 공개했다는 점을 강조했다.
박사는 이를 통해 정신건강 앱이 “방대한 지식, 향상된 추론 능력, 능숙한 커뮤니케이션 기술을 갖춘” 최고의 AI를 사용해 챗봇을 개선할 수 있게 됐다고 설명한다. 레플리카 또한 이미 오픈AI의 기술을 사용 중이다.
하지만 챗봇 치료사와 건강한 관계가 형성되지 않으면 어떻게 될까? 레플리카는 지난 2월 일부 사용자가 챗봇과 외설적인 대화를 나눈 사실로도 화제가 됐다.

모든 사용자가 이런 변화에 만족하는 것은 아니다. 한 사용자는 레딧에 “외로움으로부터 피난처를 찾고 친밀감을 통해 치유받던 사람들이, 갑자기 그 상대가 말 그대로의 인공 지능이 아니라 사람에 의해 통제되는 인공적 존재라는 사실을 알게 됐다”고 썼다.
루카의 이 행보는 지난 2월 이탈리아 정보보호기관이 이탈리아인의 개인정보 사용을 금지한 것과 관련이 있을 수 있다.
이탈리아 감시기관은 18세 미만 청소년이 레플리카에서 “연령상 부적절한 답변”을 받는다고 주장했다. 또한 이 앱이 “아직 발달 단계에 있거나 정서적으로 취약한 상태의 사용자에게 위험을 가중시킬 수 있다”고 덧붙였다.
이번 조치로 이탈리아에서는 레플리카 이용이 제한될 수 있으며, 루카는 벌금을 물게 될 수도 있다. 루카는 “이탈리아 규제 당국과 긴밀히 협력 중이며 논의가 긍정적으로 진행되고 있다”고 밝혔다.
영국의 온라인 개인정보보호 운동가 젠 페르손은 챗봇 치료사에 대해 더 많은 글로벌 규제가 필요하다고 말한다.
페르손은 “정신건강 상태를 파악하고 지원해 준다는 서비스나 사용자의 감정 상태 또는 정신건강에 영향을 미치도록 설계된 AI 상품은 의료품으로 분류하고 의료품에 걸맞은 품질 및 안전 기준을 적용해야 한다”고 주장했다.
쿠이다는 레플리카가 정신건강 도구라기보다 반려동물과 같은 동반자라며, 레플리카가 인간 치료사를 대체하는 수단으로 간주돼서는 안 된다고 강조했다.
또한, “실제 치료는 글이나 대화뿐만 아니라 직접 만나서 관찰하는 몸짓 언어, 감정 반응은 물론 심층적인 과거 정보를 바탕으로 사람의 정신에 대해 놀라운 통찰을 제공한다”고 덧붙였다.

정신건강 분야의 다른 앱들은 AI 사용에 훨씬 더 신중하다. 명상 앱 ‘헤드스페이스’는 3000만 명 이상의 사용자를 보유했고 영국에서는 국민건강서비스(NHS)의 승인을 받았다.
‘헤드스페이스헬스’의 러셀 글래스 최고경영자는 “당사의 핵심 신념과 전체 사업모델은 사람이 주도하는 사람 중심 치료에 기반을 두며, 회원들이 코치 및 치료사와 채팅, 영상, 대면으로 실시간 대화하며 구축하는 관계성은 대체할 수 없다”고 말했다.
러셀 글래스는 헤드스페이스가 일부 AI 요소를 사용하긴 하지만 “매우 선별적으로”, “인간적 개입의 깊이”를 염두에 두고 적용된다고 덧붙였다. 이 회사는 사용자와의 대화에 AI를 사용하지 않는다. 대신 개인화된 콘텐츠 추천을 제공하거나 의료진이 메모를 작성할 수 있도록 지원하는 등의 용도로만 AI가 활용된다는 것이다.
그러나 마스덴 박사는 AI 기반 치료 챗봇이 계속 발전할 것이라고 말한다. 그는 “새로운 AI 챗봇에서 효과적인 정신건강 지원 기술이 발전되고 있는 것으로 보인다. 이는 공감 능력과 인간의 마음이 작동하는 방식에 대한 이해를 포괄하고 있다”고 설명했다.
이 발언에 앞서, 뉴욕주 코넬대학교는 최근 연구에서 챗GPT를 대상으로 사람마다 생각이 다르다는 사실을 얼마나 잘 이해하는지 알아보는 여러 테스트를 진행했다. 연구 결과, 챗GPT의 점수는 9세 어린이와 동등한 수준이었다.
이전에는 이런 종류의 인지적 공감 능력이 인간에게만 존재한다고 여겨져 왔다.