
AI가 설교문을 적성할 수 있을까?
김지운 감독의 영화 ‘인류멸망보고서’(2012)에는 스님이 된 로봇이 등장한다. 인공지능의 발달로 깨달음을 얻게 된 로봇은 승려들에게 가르침을 설파한다. 이를 인류에 대한 위협으로 간주한 로봇 제조사 ‘UR’은 즉각 해체를 결정하지만, 그를 ‘인명 스님'이라 부르며 숭배하는 승려들은 이를 적극적으로 반대한다. 해체 직전 일촉즉발의 상황 속에서 로봇은 스스로 시스템을 정지하고, 승려들은 열반에 오른 로봇을 향해 절을 하며 영화는 끝이 난다.


영화 같은 이야기가 실재로도 일어났다. 2019년 일본 교토(京都)시 히가시야마(東山)에 위치한 사찰 고다이지(高台寺)에서는 안드로이드 로봇 관음상인 ‘마인더’의 첫 법요(불교의식)가 열렸다. 25분간 진행된 법요에서 ‘마인더’는 ‘인간이란 무엇인가’에 대한 화두를 던지며 ‘상대에게 공감하는 마음은 로봇에게는 없지만 인간이 갖추고 있는 힘’이라는 ‘가르침’을 주었다.1)
그렇다면 인공지능이 목사를 대신하여 설교할 수도 있을까? 그 가능성에 대해 최근 화제를 일으키고 있는 ChatGPT에게 직접 물어보았다. 그 답변은 다음과 같다.

“인공지능(AI)은 특정 분야의 정보와 규칙을 학습하여, 이를 활용해 문제를 해결하거나 일정한 행동을 수행할 수 있는 기술입니다. 하지만, 지금의 AI는 인간의 지적, 정서적, 예술적 능력을 전혀 갖추지 못하고 있습니다. 따라서, AI가 설교를 하는 것은 현재의 기술적 한계 때문에 불가능합니다.” - ChatGPT
인공지능은 설교를 할 수 없다고 말하는 인공지능의 말이 더욱 섬뜩하게 느껴지는 이유는 뭘까? 대답은 짧고 간결하지만, 논리적이고, 나아가 자신을 스스로 낮추며 객관적 평가를 있다는 점에서 도리어 사람보다 낫다는 생각이 들기도 한다.
ChatGPT의 등장
이처럼 최근 세계적인 열풍을 불러일으키고 있는 AI 챗봇, ChatGPT가 주목받고 있다. ChatGPT는 미국 샌프란시스코에 설립된 ‘오픈AI’라는 회사가 만들었는데, 2020년 여름에 GPT3라는 ‘초거대 AI’2)를 발표하였다. 이는 당시 세계에서 가장 큰 초거대 언어모델 AI였다. 파라미터의 수가 1750억 개이고, 앞으로 GPT4가 나오면 인간의 뇌와 비슷한 100조 개 정도의 파라미터가 될 것이라고 예측한다.
이미 미국에서는 ChatGPT의 능력이 다양한 곳에서 인정받고 있다. 미국 의사 면허 시험(USMLE)을 통과하였고, 펜실베니아 대학교 와튼 스쿨 MBA 최종 시험에 합격하였다. 미국 로스쿨 교수들이 진행한 실험에서는 변호사 시험 모의고사를 치르고 일부 과목에서 합격권에 가까운 점수를 받았다.
하지만 이러한 AI 챗봇이 등장한 것은 최근이 아니라 매우 오래전의 일이다. 인공지능이라는 용어는 이미 1956년 미국 다트머스 대학의 한 회의에서 처음 개념이 정의되었고, 최초의 챗봇은 1966년 MIT대학에서 개발된 엘리자(ELIZA)이다. 한국에서도 2021년 1월에 ‘이루다’라는 챗봇이 출시되었다가 개인 정보 유출 등의 논란으로 3주 만에 서비스 종료되었다.
그런데 이번 ChatGPT에 대한 반응은 이전의 챗봇들에 비해 매우 뜨겁다. 그 열기는 전 세계적이고, 지속적이다. 그 이유는 무엇일까?
첫째, 완성도가 높기 때문이다. 언어모델에서 완성도가 높다는 것은 사람처럼 자연스럽다는 뜻이다. ChatGPT는 사용자와의 대화에서 맥락을 기억하고 그에 맞추어 정교한 대화를 생성한다. ChatGPT는 사용자로부터 어떠한 단어가 주어졌을 때, 통계적으로 가장 어울리는 다음 단어를 예측하여 제시한다. 이것이 가능한 이유는 엄청난 양의 데이터를 사전 학습(Pre-trained)하고, 트랜스포머(Transformer) 모델을 통해 여러 단어를 다양하게 조합함으로써, 자연스러울 확률이 가장 높은 문장을 생성(Generative) 하기 때문이다.
이를 위해서는 방대한 양의 말뭉치(Corpus) 데이터와, 이를 연산할 수 있는 고성능 컴퓨팅 파워가 필요한데, 개발에 들어가는 천문학적인 비용을 위해 마이크로소프트는 ‘오픈AI’에 10억 달러(약 1조 2,400억 원)를 투자하였고, 이어서 추가로 총 100억 달러(약 12조 4,000억 원)의 투자를 협의 중이라고 한다.
둘째로, ChatGPT에 대한 관심이 큰 이유는 현재 세계에서 가장 빠르게 성장하는 플랫폼이기 때문이다. 2022년 11월 말에 출시되어 일주일 만에 100만 명 이상의 사용자가 가입했고(Netflix 3.5년 소요), 일 사용자 기준 1,000만 명이 사용하면서, 오늘날 지구상에 나왔던 그 어떤 서비스보다 빠르게 성장하고 있다.
이는 다시 말해서, 인공지능이 얼마나 강력 해졌는가에 대해 AI 전문가가 아닌 일반 대중이 직접 경험하기 시작했다는 것이다. 대학생들은 수업용 레포트를 제출하기 위해 ChatGPT를 사용하고, 귀찮은 이메일 작성을 ChatGPT에게 맡긴다. 자신이 작곡한 음악에 가사를 작사해 달라고 부탁하고, 토끼와 호랑이가 등장하는 동화를 창작해 달라고 요청할 수도 있다. 그리고 ChatGPT는 이러한 요구에 1-2분 내에 응답한다.
이처럼 일상으로 다가온 인공지능은 사람들에게 경이로움과 동시에 두려움을 준다. 이는 로봇이 사람의 모습과 비슷해질수록 인간이 로봇에게 느끼는 호감도가 증가하지만, 그 유사성이 ‘어느 정도’에 도달하게 되면 오히려 강한 거부감을 유발하게 된다는 ‘불쾌한 골짜기(uncanny valley)’ 이론과도 유사하다.3)
ChatGPT와 교회
그렇다면 교회와 기독교인들은 ChatGPT의 등장을 어떻게 바라보아야 할까?
첫째로, ChatGPT로 설교문을 작성하고자 하는 시도는 위험하다. 여기에는 반드시 신학적이고 교리적인 문제가 발생할 가능성이 존재한다. 왜냐하면 ChatGPT는 정답을 이야기해 주는 존재가 아니다. 굳이 표현하자면 ‘그럴싸한 검색 결과’를 보여주는 서비스일 뿐이다. 처음 구글이나 네이버 검색 서비스가 나왔을 때 우리는 엄청난 양의 정보를 손쉽게 얻을 수 있다는 사실에 열광했다. 하지만 그 검색 결과 중에는 부정확한 정보들과 출처를 알 수 없는 정보들이 많지 않던가? 수많은 정보를 검색할 수는 있지만, 그중에서 양질의 정보를 골라내고 분별하는 것은 여전히 우리의 몫이다.
설교문을 작성할 때도 마찬가지이다. ChatGPT와 같은 ‘초거대 AI’에는 항상 ‘데이터의 편향성’이라는 문제가 뒤따른다. 방대한 데이터는 결국 사람들이 만들어낸 결과물들이고, 이러한 데이터에는 사회적인 편견이나 오류가 들어있을 수밖에 없다. 가령 이단의 사상이나 편향된 교리들이 데이터 안으로 유입되면, ChatGPT를 통해 생성한 설교문에도 편향적이거나 부정확한 결과물들이 나오게 될 위험이 존재한다.
둘째로, 교회는 ChatGPT와 같은 초거대 AI를 보조적인 도구로 활용하기 위해 노력해야 한다. ChatGPT의 답변을 정답이라고 믿는 것은 위험하지만, 분별력을 가지고 활용한다면 목회나 신앙생활에 효과적인 도구가 될 수 있다.
ChatGPT는 앞으로 우리가 맞이할 ‘검색의 미래’이다. 어떠한 정보를 찾을 때 검색창을 통해 주어지는 ‘100개의 링크’와 자비스(JARVIS)4)가 일러주는 ‘정리된 하나의 답변’ 중에서 어느 것이 더 편리할까? 당연히 후자이다.
이처럼 교회에서도 인공지능을 활용하여 좀 더 효과적인 사역을 할 수 있다. 예를 들어, ‘Dall-E’라는 이미지 생성 AI를 통하여 교재에 들어갈 삽화를 만들 수 있고, ChatGPT를 통해 ‘성경에서 아픈 자가 고침을 받는 장면이 나오는 구절을 10개 찾아줘’와 같이 성경 본문을 더욱 효율적으로 검색할 수도 있다. 또한 ‘세계 종교 인구에 대한 보고서를 작성해 줘’와 같이 설교에 인용할 정보에 대한 내용을 바로 확인할 수도 있다.
그럴싸한 것들에 대한 종말
결론적으로 교회는 이제 더욱 신앙의 ‘본질’에 집중해야 한다. ChatGPT가 만들어 내는 설교문이나 기도문을 보면 매우 ‘그럴싸’하다. 하지만 자세히 들여다보면 새로운 인사이트나 구체적인 내용보다는 추상적인 단어들이 반복적으로 나열될 뿐이다. 이는 앞서 ChatGPT가 응답한 것처럼 현재의 AI 기술로는 인간의 지적, 정서적, 예술적 능력을 표현할 수 없기 때문이다.
이를 다른 말로 ‘암묵적 지식(tacit Knowledge)’이라고 하는데, 이는 언어 등의 형식만으로 표현될 수 없는 경험과 학습에 의해 몸에 쌓인 지식을 말한다.5) ChatGPT는 백과사전 등과 같은 ‘명시적 지식(explicit knowledge)’에 대해서는 쉽게 정리하고 답을 할 수 있지만, 암묵적 지식이 담긴 문장이나 결과물을 만들어내는 것은 한계가 분명하다.
설교는 ‘명시적 지식’만으로 이루어지지 않는다. 설교란 ‘택함받은 설교자가 당대의 커뮤니케이션을 통하여 회중에게 하나님의 말씀인 성서의 진리를 선포하고, 해석하고, 이 진리를 회중들의 삶에 적용시키는 것이다. 그리고 이것은 반드시 성령의 감화하심에 의해 이루어져야 한다.’는 정장복 교수의 정의처럼 데이터에 기록되고 축적된 지식만으로 이루어진 문장을 설교라 할 수 없다.
하지만 우리는 이러한 논쟁 이전에도 이미 교회 안에서 이러한 ‘명시적 지식’으로 가득한 문장들을 수차례 접해 왔었다. 이른바 ‘그럴싸한 설교’이고, ‘중언부언하는 기도’이다. 문장이 매끄럽고 자연스럽게 들릴지는 몰라도, 물에 물 탄 듯, 술에 술 탄 듯, 전하는 이나 듣는 이에게, 어떠한 마음의 변화나 감동이 일어나지 않는다면 이제는 정말 그 자리를 AI에게 넘겨줘야 할지 모른다.
ChatGPT와 같은 ‘초거대 AI’는 기존의 ‘그럴싸한 것들’에 대한 종말을 고한다. 그럴싸한 그림, 그럴싸한 소설, 그럴싸한 음악 등은 더 이상 설 자리가 없다. 설교자는 더 이상 ‘그럴싸한 정도’에 안주해서는 안 된다. 한 문장이라도 성서의 진리를 선포하기 위한 치열한 고민과 묵상만이 설교자를 인공지능으로부터 구별 지어 줄 것이다.
성령의 감화를 통해 부어지는 ‘암묵적 지식’은 인공지능이 결코 학습하기 어려운 영역이다. 때문에 인공지능은 설교자에게 결코 두려움의 대상이 아니다. 진짜 설교자의 자리를 위협하는 것은 ChatGPT나, 버추얼 휴먼(Virtual Human)이 아니라, 그럴싸한 설교자의 모습에 안주하려는 자신이다.
각주
1) https://www.yna.co.kr/view/AKR20190224039500073
2) 대용량 데이터를 스스로 학습해 인간처럼 종합적 추론이 가능한 차세대 인공지능(AI)이다. 기존 AI보다 수백 배 2이상의 데이터 학습량이 필요하며 판단 능력도 향상된 형태이다. 대표적인 초거대 AI로는 구글(딥마인드)의 스위치트랜스포머, 오픈AI의 GPT-3가 있으며 국내 기업으로는 네이버의 하이퍼클로바, 카카오브레인의 KoGPT, LG의 엑사원 등이 있다. - 시사상식사전
3) https://ko.wikipedia.org/wiki/불쾌한_골짜기
4) 마블 시네마틱 유니버스에 등장하는 토니 스타크의 집사 인공지능 비서
5) https://ko.wikipedia.org/wiki/암묵적지식
조성실 교회와디지털미디어센터장
장로회신학대학원과 고려대학교 언론대학원 졸업 후, 현재 장로회신학대학교 기독교와문화 박사과정 중에 있다.
본 연구원 교회와디지털미디어센터와 소망교회 미디어 사역을 담당하고 있다.
AI가 설교문을 적성할 수 있을까?
김지운 감독의 영화 ‘인류멸망보고서’(2012)에는 스님이 된 로봇이 등장한다. 인공지능의 발달로 깨달음을 얻게 된 로봇은 승려들에게 가르침을 설파한다. 이를 인류에 대한 위협으로 간주한 로봇 제조사 ‘UR’은 즉각 해체를 결정하지만, 그를 ‘인명 스님'이라 부르며 숭배하는 승려들은 이를 적극적으로 반대한다. 해체 직전 일촉즉발의 상황 속에서 로봇은 스스로 시스템을 정지하고, 승려들은 열반에 오른 로봇을 향해 절을 하며 영화는 끝이 난다.
영화 같은 이야기가 실재로도 일어났다. 2019년 일본 교토(京都)시 히가시야마(東山)에 위치한 사찰 고다이지(高台寺)에서는 안드로이드 로봇 관음상인 ‘마인더’의 첫 법요(불교의식)가 열렸다. 25분간 진행된 법요에서 ‘마인더’는 ‘인간이란 무엇인가’에 대한 화두를 던지며 ‘상대에게 공감하는 마음은 로봇에게는 없지만 인간이 갖추고 있는 힘’이라는 ‘가르침’을 주었다.1)
그렇다면 인공지능이 목사를 대신하여 설교할 수도 있을까? 그 가능성에 대해 최근 화제를 일으키고 있는 ChatGPT에게 직접 물어보았다. 그 답변은 다음과 같다.
인공지능은 설교를 할 수 없다고 말하는 인공지능의 말이 더욱 섬뜩하게 느껴지는 이유는 뭘까? 대답은 짧고 간결하지만, 논리적이고, 나아가 자신을 스스로 낮추며 객관적 평가를 있다는 점에서 도리어 사람보다 낫다는 생각이 들기도 한다.
ChatGPT의 등장
이처럼 최근 세계적인 열풍을 불러일으키고 있는 AI 챗봇, ChatGPT가 주목받고 있다. ChatGPT는 미국 샌프란시스코에 설립된 ‘오픈AI’라는 회사가 만들었는데, 2020년 여름에 GPT3라는 ‘초거대 AI’2)를 발표하였다. 이는 당시 세계에서 가장 큰 초거대 언어모델 AI였다. 파라미터의 수가 1750억 개이고, 앞으로 GPT4가 나오면 인간의 뇌와 비슷한 100조 개 정도의 파라미터가 될 것이라고 예측한다.
이미 미국에서는 ChatGPT의 능력이 다양한 곳에서 인정받고 있다. 미국 의사 면허 시험(USMLE)을 통과하였고, 펜실베니아 대학교 와튼 스쿨 MBA 최종 시험에 합격하였다. 미국 로스쿨 교수들이 진행한 실험에서는 변호사 시험 모의고사를 치르고 일부 과목에서 합격권에 가까운 점수를 받았다.
하지만 이러한 AI 챗봇이 등장한 것은 최근이 아니라 매우 오래전의 일이다. 인공지능이라는 용어는 이미 1956년 미국 다트머스 대학의 한 회의에서 처음 개념이 정의되었고, 최초의 챗봇은 1966년 MIT대학에서 개발된 엘리자(ELIZA)이다. 한국에서도 2021년 1월에 ‘이루다’라는 챗봇이 출시되었다가 개인 정보 유출 등의 논란으로 3주 만에 서비스 종료되었다.
그런데 이번 ChatGPT에 대한 반응은 이전의 챗봇들에 비해 매우 뜨겁다. 그 열기는 전 세계적이고, 지속적이다. 그 이유는 무엇일까?
첫째, 완성도가 높기 때문이다. 언어모델에서 완성도가 높다는 것은 사람처럼 자연스럽다는 뜻이다. ChatGPT는 사용자와의 대화에서 맥락을 기억하고 그에 맞추어 정교한 대화를 생성한다. ChatGPT는 사용자로부터 어떠한 단어가 주어졌을 때, 통계적으로 가장 어울리는 다음 단어를 예측하여 제시한다. 이것이 가능한 이유는 엄청난 양의 데이터를 사전 학습(Pre-trained)하고, 트랜스포머(Transformer) 모델을 통해 여러 단어를 다양하게 조합함으로써, 자연스러울 확률이 가장 높은 문장을 생성(Generative) 하기 때문이다.
이를 위해서는 방대한 양의 말뭉치(Corpus) 데이터와, 이를 연산할 수 있는 고성능 컴퓨팅 파워가 필요한데, 개발에 들어가는 천문학적인 비용을 위해 마이크로소프트는 ‘오픈AI’에 10억 달러(약 1조 2,400억 원)를 투자하였고, 이어서 추가로 총 100억 달러(약 12조 4,000억 원)의 투자를 협의 중이라고 한다.
둘째로, ChatGPT에 대한 관심이 큰 이유는 현재 세계에서 가장 빠르게 성장하는 플랫폼이기 때문이다. 2022년 11월 말에 출시되어 일주일 만에 100만 명 이상의 사용자가 가입했고(Netflix 3.5년 소요), 일 사용자 기준 1,000만 명이 사용하면서, 오늘날 지구상에 나왔던 그 어떤 서비스보다 빠르게 성장하고 있다.
이는 다시 말해서, 인공지능이 얼마나 강력 해졌는가에 대해 AI 전문가가 아닌 일반 대중이 직접 경험하기 시작했다는 것이다. 대학생들은 수업용 레포트를 제출하기 위해 ChatGPT를 사용하고, 귀찮은 이메일 작성을 ChatGPT에게 맡긴다. 자신이 작곡한 음악에 가사를 작사해 달라고 부탁하고, 토끼와 호랑이가 등장하는 동화를 창작해 달라고 요청할 수도 있다. 그리고 ChatGPT는 이러한 요구에 1-2분 내에 응답한다.
이처럼 일상으로 다가온 인공지능은 사람들에게 경이로움과 동시에 두려움을 준다. 이는 로봇이 사람의 모습과 비슷해질수록 인간이 로봇에게 느끼는 호감도가 증가하지만, 그 유사성이 ‘어느 정도’에 도달하게 되면 오히려 강한 거부감을 유발하게 된다는 ‘불쾌한 골짜기(uncanny valley)’ 이론과도 유사하다.3)
ChatGPT와 교회
그렇다면 교회와 기독교인들은 ChatGPT의 등장을 어떻게 바라보아야 할까?
첫째로, ChatGPT로 설교문을 작성하고자 하는 시도는 위험하다. 여기에는 반드시 신학적이고 교리적인 문제가 발생할 가능성이 존재한다. 왜냐하면 ChatGPT는 정답을 이야기해 주는 존재가 아니다. 굳이 표현하자면 ‘그럴싸한 검색 결과’를 보여주는 서비스일 뿐이다. 처음 구글이나 네이버 검색 서비스가 나왔을 때 우리는 엄청난 양의 정보를 손쉽게 얻을 수 있다는 사실에 열광했다. 하지만 그 검색 결과 중에는 부정확한 정보들과 출처를 알 수 없는 정보들이 많지 않던가? 수많은 정보를 검색할 수는 있지만, 그중에서 양질의 정보를 골라내고 분별하는 것은 여전히 우리의 몫이다.
설교문을 작성할 때도 마찬가지이다. ChatGPT와 같은 ‘초거대 AI’에는 항상 ‘데이터의 편향성’이라는 문제가 뒤따른다. 방대한 데이터는 결국 사람들이 만들어낸 결과물들이고, 이러한 데이터에는 사회적인 편견이나 오류가 들어있을 수밖에 없다. 가령 이단의 사상이나 편향된 교리들이 데이터 안으로 유입되면, ChatGPT를 통해 생성한 설교문에도 편향적이거나 부정확한 결과물들이 나오게 될 위험이 존재한다.
둘째로, 교회는 ChatGPT와 같은 초거대 AI를 보조적인 도구로 활용하기 위해 노력해야 한다. ChatGPT의 답변을 정답이라고 믿는 것은 위험하지만, 분별력을 가지고 활용한다면 목회나 신앙생활에 효과적인 도구가 될 수 있다.
ChatGPT는 앞으로 우리가 맞이할 ‘검색의 미래’이다. 어떠한 정보를 찾을 때 검색창을 통해 주어지는 ‘100개의 링크’와 자비스(JARVIS)4)가 일러주는 ‘정리된 하나의 답변’ 중에서 어느 것이 더 편리할까? 당연히 후자이다.
이처럼 교회에서도 인공지능을 활용하여 좀 더 효과적인 사역을 할 수 있다. 예를 들어, ‘Dall-E’라는 이미지 생성 AI를 통하여 교재에 들어갈 삽화를 만들 수 있고, ChatGPT를 통해 ‘성경에서 아픈 자가 고침을 받는 장면이 나오는 구절을 10개 찾아줘’와 같이 성경 본문을 더욱 효율적으로 검색할 수도 있다. 또한 ‘세계 종교 인구에 대한 보고서를 작성해 줘’와 같이 설교에 인용할 정보에 대한 내용을 바로 확인할 수도 있다.
그럴싸한 것들에 대한 종말
결론적으로 교회는 이제 더욱 신앙의 ‘본질’에 집중해야 한다. ChatGPT가 만들어 내는 설교문이나 기도문을 보면 매우 ‘그럴싸’하다. 하지만 자세히 들여다보면 새로운 인사이트나 구체적인 내용보다는 추상적인 단어들이 반복적으로 나열될 뿐이다. 이는 앞서 ChatGPT가 응답한 것처럼 현재의 AI 기술로는 인간의 지적, 정서적, 예술적 능력을 표현할 수 없기 때문이다.
이를 다른 말로 ‘암묵적 지식(tacit Knowledge)’이라고 하는데, 이는 언어 등의 형식만으로 표현될 수 없는 경험과 학습에 의해 몸에 쌓인 지식을 말한다.5) ChatGPT는 백과사전 등과 같은 ‘명시적 지식(explicit knowledge)’에 대해서는 쉽게 정리하고 답을 할 수 있지만, 암묵적 지식이 담긴 문장이나 결과물을 만들어내는 것은 한계가 분명하다.
설교는 ‘명시적 지식’만으로 이루어지지 않는다. 설교란 ‘택함받은 설교자가 당대의 커뮤니케이션을 통하여 회중에게 하나님의 말씀인 성서의 진리를 선포하고, 해석하고, 이 진리를 회중들의 삶에 적용시키는 것이다. 그리고 이것은 반드시 성령의 감화하심에 의해 이루어져야 한다.’는 정장복 교수의 정의처럼 데이터에 기록되고 축적된 지식만으로 이루어진 문장을 설교라 할 수 없다.
하지만 우리는 이러한 논쟁 이전에도 이미 교회 안에서 이러한 ‘명시적 지식’으로 가득한 문장들을 수차례 접해 왔었다. 이른바 ‘그럴싸한 설교’이고, ‘중언부언하는 기도’이다. 문장이 매끄럽고 자연스럽게 들릴지는 몰라도, 물에 물 탄 듯, 술에 술 탄 듯, 전하는 이나 듣는 이에게, 어떠한 마음의 변화나 감동이 일어나지 않는다면 이제는 정말 그 자리를 AI에게 넘겨줘야 할지 모른다.
ChatGPT와 같은 ‘초거대 AI’는 기존의 ‘그럴싸한 것들’에 대한 종말을 고한다. 그럴싸한 그림, 그럴싸한 소설, 그럴싸한 음악 등은 더 이상 설 자리가 없다. 설교자는 더 이상 ‘그럴싸한 정도’에 안주해서는 안 된다. 한 문장이라도 성서의 진리를 선포하기 위한 치열한 고민과 묵상만이 설교자를 인공지능으로부터 구별 지어 줄 것이다.
성령의 감화를 통해 부어지는 ‘암묵적 지식’은 인공지능이 결코 학습하기 어려운 영역이다. 때문에 인공지능은 설교자에게 결코 두려움의 대상이 아니다. 진짜 설교자의 자리를 위협하는 것은 ChatGPT나, 버추얼 휴먼(Virtual Human)이 아니라, 그럴싸한 설교자의 모습에 안주하려는 자신이다.
각주
1) https://www.yna.co.kr/view/AKR20190224039500073
2) 대용량 데이터를 스스로 학습해 인간처럼 종합적 추론이 가능한 차세대 인공지능(AI)이다. 기존 AI보다 수백 배 2이상의 데이터 학습량이 필요하며 판단 능력도 향상된 형태이다. 대표적인 초거대 AI로는 구글(딥마인드)의 스위치트랜스포머, 오픈AI의 GPT-3가 있으며 국내 기업으로는 네이버의 하이퍼클로바, 카카오브레인의 KoGPT, LG의 엑사원 등이 있다. - 시사상식사전
3) https://ko.wikipedia.org/wiki/불쾌한_골짜기
4) 마블 시네마틱 유니버스에 등장하는 토니 스타크의 집사 인공지능 비서
5) https://ko.wikipedia.org/wiki/암묵적지식
조성실 교회와디지털미디어센터장
장로회신학대학원과 고려대학교 언론대학원 졸업 후, 현재 장로회신학대학교 기독교와문화 박사과정 중에 있다.
본 연구원 교회와디지털미디어센터와 소망교회 미디어 사역을 담당하고 있다.