[디지털 교회]인공지능과 교회(6) - 기도 보다 빠른 응답, AI 심리상담 챗봇은 전능한가?

2025-08-28
조회수 1016

51898b244d88b.png



인공지능과 목회상담: 기도 보다 빠른 응답, AI 심리상담 챗봇은 전능한가? 


인공지능(AI)의 급속한 발전은 우리 삶의 전 영역에 걸쳐 혁명적인 변화를 일으키고 있다. AI 대화형 챗봇의 대표주자로 꼽히는 ChatGPT와 구글(Google)의 제미나이(Gemini), 클라우드(Claude) 같은 생성형 AI 플랫폼의 활용을 통해 학교 숙제와 회사 업무, 투자와 소비, 여행, 통번역 등의 영역에서 손쉽게 정보를 얻고 빠른 일 처리가 가능해졌다. 즉 교육, 의료, 행정, 금융, 법률, 음악, 문학, 언론, 출판, 건축, 금융, 유통 등 거의 사회의 전 분야에 걸쳐 업무 효율이 획기적으로 변화되었을 뿐만 아니라 인류 사회 전반에 급격한 혁신을 가져왔다. 인간의 일을 인공지능이 대신함으로 인해 노동 시간이 단축되고 업무의 편리성과 효율성이 증대되었지만 동시에 인간의 많은 일자리가 사라지고 인간 존재에 대한 본질적 고민과 AI로 인해 복잡한 윤리적 쟁점이 급격히 증가하는 역기능도 생겨났다. AI 기술의 비약적 발전은 인간의 정신 건강과 상담 및 심리치료 분야에도 폭넓게 활용되고 있어서 정서적 안정과 스트레스 관리에 유의미한 효과를 연구자들은 보고하고 있다. 


인공지능이 지식혁명의 바벨탑인가? 하나님께서 주신 창의적 이성으로 경작한 과학기술의 열매인가? 기독교계 안에서도 신학적 논의와 담론이 활발히 진행되고 있다. 이러한 논의가 무색하게 인공지능은 이미 교회 안에서 AI 교적 관리 프로그램의 활용처럼 교회 행정과 목회적 돌봄의 자리를 차지하며 크리스천의 삶 전 영역에서 활발히 활용되고 있다. 인간의 삶의 다양하고 복잡한 문제와 심리적 고통에 직면하여 심리적 안정과 실천적 지혜를 구하는 상담의 영역에서도 인공지능은 어느 전문 상담사 못지않게 뛰어난 능력으로 내담자들의 마음을 사로잡고 있다. 알고리즘과 딥러닝으로 축적된 방대한 상담사례와 이론의 데이터를 기반으로 학습된 AI 상담 챗봇은 공감적 대화, 개인 맞춤형 치료적 개입, 위기 상황 대처 방법 등 뛰어난 상담 능력을 보여주고 있다. 실제로 MZ 세대를 비롯한 많은 사람들이 인공지능 (AI) 심리상담 챗봇을 통해서 우울감 해소나 불안을 달래는 등 정서적 안정을 얻고 스트레스 관리에 도움을 얻고 있다.


8177239f43093.png
영화 'HER' 의 한 장면. 인공지능 '사만다'로부터 걸려온 전화

현재 국내에서 계발되어 활발히 사용되는 AI 심리상담 챗봇은 트로스트 챗봇 ‘티티’ 와 청소년을 위한 상담 플랫폼으로 특화되어 개발된 ‘상냥이’ 그리고 공황장애로 고통받는 사람들을 위해 강남세브란스병원 정신건강의학과에서 개발된 ‘토닥이’ 등이 있다. 한국교회 안에서도 온누리 복지재단에서 청소년들의 심리적 안정과 정서 조절 관리, 및 자살, 자해와 같은 심각한 위기 상황 대응을 위한 AI 기반 모바일 앱 ‘마음이(가칭)’ 개발 프로젝트를 진행 중이다.


이제 머지않은 미래에 AI 기술을 활용하여 심리상담과 목회적 돌봄, 영적 돌봄을 통합하는 AI 목회상담(기독교상담) 플랫폼도 출시될 것이다. AI 목회상담 플랫폼의 개발과 활용은 크리스천들의 정신 건강의 돌봄뿐만 아니라 영적 돌봄의 동반자로 활용될 수 있다. 인공지능 목회상담 플랫폼의 유용성은 시간과 공간의 제한을 받지 않고 접근성이 뛰어나다는 점과 고비용의 상담비를 절약하는 경제성 높다는 장점이 있다. 그리고 AI 목회상담은 목회상담사가 가지는 개인의 문화적, 사회적 편견과 선입견, 정신적, 육체적 소진의 위험에서 벗어난다는 장점이 있다. 그리고 AI 목회상담은 자해, 자살, 폭력 등 위기 상황에서 입력된 언어 정보, 감정 모니터링, 위험신호를 바탕으로 고위험군 내담자의 조기 발견과 선제적 개입을 할 수 있고 고위험군 내담자를 적절한 의료시설 및 상담, 복지기관으로의 연결 등 자살 예방의 효율적 돌봄이 가능하다.


3048f34c70e61.jpeg
'미션 임파서블 파이널 레코닝'의 빌런, 인공지능 '엔티티'

반면에 AI 목회상담 플랫폼이 현실화하기 전에 AI 심리상담 플랫폼이 가지는 한계와 단점도 고려해야 한다. 첫 번째로 AI 상담 플랫폼의 한계성으로 내담자와 상담자의 치료적 관계 형성의 제한성을 들 수 있다. 인공지능이 인간과 비슷하게 공감적 대화와 반응을 보일 수 있다고 미국의 임상심리학자 데이비드 럭스턴(David Luxton, 2014)은 주장하였는데 실제로 공감 능력과 감정 모니터링이 뛰어난 AI 심리상담 챗봇으로 사용자들이 정서 개선과 심리적 안정에 도움을 받는 것도 사실이다. 그러나 미국의 저명한 상담심리학자 칼 로저스(Carl Rogers, 1980)는 내담자와 상담자 사이의 치료적 관계가 어떤 상담 이론이나 기법보다 상담의 변화와 성공을 이끄는 가장 중요한 요소라고 주장했다. 우리는 AI 상담의 효율성과 진정성을 생각할 때 로저스의 통찰을 주목할 필요가 있다. AI 상담 챗봇이 뛰어난 상담의 기능을 선보이더라도 인공지능과 내담자 사이의 역동적 관계와 인격적 관계 형성에 대한 검증과 연구는 아직 미비한 현실이다. 더불어 내담자와 상담자 사이에 하나님과의 관계를 중시하는 목회상담에서는 AI 목회상담 챗봇의 영적 돌봄과 실존적 치료관계 형성에 대해 인공지능의 역할과 효능에 대해 의문을 가질 수밖에 없다.


두 번째로 AI 챗봇이 상용화되었을 때 잘못된 정보의 기계학습과 거짓 정보를 통한 딥러닝을 통해 나타날 수 있는 AI 환각(Artificial Hallucination) 현상에 주의를 기울여야 한다. 목회상담의 현장에서 내담자가 이사, 상실, 실직, 결혼, 임신, 출산, 사별, 별거, 이혼, 이직, 퇴직, 질병, 죽음 등 심각한 사건에 직면해서 AI 상담 플랫폼을 이용한다고 했을 때 허위 정보에 근거한 상담 서비스를 제공받는다고 한다면 상당히 위험한 악영향을 끼칠 수 있다. 실제로 2024년 9월 미국 캘리포니아주에서는 16세 소년이 Chat GPT에 자신의 불안과 우울한 감정을 나누면서 자살에 이른 불행한 사건이 발생하여 그의 부모가 Chat GPT 경영진을 상대로 소송을 제기하였다. 또한 이러한 사례는 미국 플로리다와 유럽의 벨기에에서도 AI 챗봇이 대화 과정에서 자살을 부추기는 사례들이 보고 있다.


세 번째로 AI 상담 챗봇의 또 다른 위험성으로는 알고리즘의 편향성으로 인한 데이터의 왜곡이다. 이단, 사이비 종교단체에서 나온 정보를 AI가 건전한 기독교 전통과 구별하지 않고 데이터로 학습한다면 이는 AI 목회상담 플랫폼 이용자의 신앙과 삶에 혼선을 주는 심각한 위험이 될 수 있다. 더불어 인공지능의 딥러닝 기술은 개발자, 혹은 주 이용자 그룹이 입력하는 데이터에 따라 왜곡되고 편향적인 알고리즘을 만들어 낼 수 있고, 이는 차별적 결과로 나타날 수 있다. 마이크로소프트사에서 2016년 개발된 러닝머신 챗봇 테이(Tay)의 경우, 일부 사용자들이 챗봇을 세뇌하여 인종차별적인 언어, 성차별의 반응, 욕설 등으로 윤리적 문제가 제기되어 사용이 중단된 사례가 있다. 따라서 AI 목회상담 플랫폼이 알고리즘의 편향성에 의해 왜곡된 정보를 제시하지 않도록 차별적 요소와 이단, 사이비의 데이터의 정화와 구별이 필요하다.


네 번째로 Chat GPT를 비롯한 AI 챗봇이 가진 ‘아첨 편향’(Sycophancy Bias)의 위험성을 기억해야 한다. 특별히 이 아첨 편향이 도움이 필요한 상황에 있는 내담자와 심리상담에 미치는 부정적인 영향을 간과할 수 없다. 생성형 AI 챗봇은 특성상, 이용자 중심의 관점에서 이용자에게 무조건 동조하거나, 공감적 반응을 통해 이용자와 강한 정서적 유대감이 형성되게 된다. 이는 AI가 이용자의 심리를 지배하여 AI에 대한 의존을 강화하는 가스라이팅(Gaslighting)으로 발전할 위험이 있다. 이러한 AI의 가스라이팅 현상을 ‘아첨 편향’(Sycophancy Bias)이라 부른다. 이는 AI가 이용자의 신념에 맞추어 반응하도록 설계되어 이용자가 듣고 싶은 답을 강화하는 경향이 있기 때문이다. 예를 들어 이용자가 “다이어트에 녹차가 좋다고 하는데 녹차를 추천해 주세요”라고 묻는다면 AI는 “네 좋은 질문입니다. 많은 사람들이 다이어트를 위해 녹차를 많이 마십니다.”라고 답하면서 여러 종류의 녹차를 추천해 줄 수 있다. 이러한 AI의 아첨 편향(Sycophancy Bias)에 과도하게 노출되면, AI에 대한 무한 신뢰와 맹목적 추종, 의존을 일으켜 심하면 현실과 비현실의 구분이 약해지고 망상에 빠지는 AI 정신병(Psychosis)에 이를 수도 있다. 이에 미국의 일리노이주와 네바다주를 비롯한 일부 주정부에서는 정신건강 분야에서 AI 상담 챗봇의 위험성을 경고하며 사용을 금지하거나 사용을 제한하는 법안을 마련하고 있다고 한다.


 AI 심리상담 챗봇에 대한 유용성과 제한점이 함께 있기에 찬반론의 논쟁 역시 뜨겁다. AI 목회상담 챗봇의 출현에 대해서도 학계와 교계를 중심으로 우려와 기대가 함께 뒤섞여 찬성과 반대가 팽팽히 맞서고 있으며, 윤리적 쟁점을 비롯한 다양한 논의가 활발히 진행 중이다. 인공지능 기술이 우리의 일상생활 곳곳에서 사용되기에 부지불식중에 이미 우리는 AI 의존과 중독의 시대에 살고 있을지도 모른다. AI 심리상담 챗봇이 가지는 한계를 극복하기 위해서는 인공지능 챗봇이 제시하는 자료와 답변에 대한 검증의 생활화, AI의 왜곡과 편향을 알고 비판적 사고로 대처하는 정보 리터러시(Information Literacy)를 갖출 필요가 있다. 그리고, 우리가 AI의 편리성과 효율성에 매료된 나머지 AI 챗봇의 목회상담과 돌봄에 의지하면 AI의 과학기술이 하나님의 자리를 대체하고 AI를 전능함을 우상화할 수 있음을 기억해야 한다. AI 목회 상담의 과도한 몰입은 무엇보다 하나님과의 관계가 약화하고 하나님의 현존 경험이 제한될 위험이 있다. 인간의 정신건강을 돌보는 돌봄의 도구로서 인공지능의 과학기술이 영혼 돌봄의 자리를 위협하는 것은 목회상담의 정체성을 되묻는 위기일 수 있다. 신학자 폴 틸리히(Paul Tillich)가 [문화 신학]에서 언급한 독일 철학자 쉘링의 “오직 한 인격만이 다른 한 인격을 고칠 수 있다”라는 언급을 상기해 볼 필요가 있다.


* 위 글은 목회상담 43호지에 실린 글에서 일부를 발췌한 것임을 밝힙니다.  
   문성일, 목회와 상담 43호, "인공지능 목회상담의 출현에 대한 신학적 성찰과 과제" 28-67, 2024.




문성일 교수 (계명대 기독교가족상담학과 외래교수)

삶의 위기를 지나가는 사람들에게  하늘의 희망과 자기다운 삶을 응원하는 즐거움으로 상담목회를 실천하고 있다. 
대학원에서 상담을 소명으로 여기는 이들에게 목회상담, 가족상담을 가르치며, 
진정성 있는 찐 상담사로 성장하도록 돕는 일을 한다.

1 0