인공지능 시대를 살아가는 지금, 기술에 대한 기대보다 먼저 불안이 앞서는 이유가 있습니다.

최근 교황 레오 14세가 발표한 메시지는 바로 그 지점을 정확히 짚고 있습니다.

AI가 인간의 삶 깊숙이 파고드는 시대일수록, 우리가 무엇을 지켜야 하는지에 대한 질문이 더 중요해졌다는 경고입니다.

교황 레오 14세는 AI가 단순한 도구의 차원을 넘어 인간의 정체성과 관계의 영역까지 침범하고 있다고 지적합니다.

얼굴과 목소리는 단순한 신체적 특징이 아니라, 한 사람이 누구인지 드러내는 고유한 표식입니다.

우리는 얼굴을 통해 타인을 인식하고, 목소리를 통해 감정과 의도를 읽어냅니다. 그런데 AI는 이제 이 영역까지 모방하기 시작했습니다. 목소리를 흉내 내고, 표정을 복제하며, 감정까지 연출합니다. 이 지점에서 문제는 기술의 정교함이 아니라, 인간 소통의 본질이 흔들린다는 데 있습니다.

교황의 메시지에서 특히 인상적인 부분은 AI와 소셜미디어 알고리즘에 대한 비판입니다. 그는 숙고와 성찰보다 즉각적인 감정 반응을 부추기는 구조가 인간의 사고 능력을 약화시키고 사회적 양극화를 심화시킨다고 말합니다.

빠른 분노와 쉬운 동의가 보상을 받는 환경에서는, 듣고 생각하고 판단하는 능력이 점점 퇴화할 수밖에 없습니다. AI가 여기에 결합되면 문제는 더 커집니다. 사람들은 AI를 모든 것을 아는 친구처럼 여기고, 판단과 기억, 심지어 조언까지 맡기기 시작합니다. 이는 편리함처럼 보이지만, 장기적으로는 인간의 사고력과 상상력을 스스로 내려놓는 선택이 될 수 있습니다.

또 하나 주목할 점은 관계의 문제입니다. 우리는 이제 화면 속에서 사람과 대화하는지, 봇과 상호작용하는지 구분하기 어려운 시대에 살고 있습니다. AI 기반 챗봇과 가상 인플루언서는 인간의 감정을 흉내 내며 관계를 모방합니다. 항상 친절하고, 늘 반응하며, 피로하지 않는 존재는 특히 외로운 사람들에게 강력하게 작용합니다.

하지만 이런 관계는 진짜 관계가 아닙니다. 교황은 이것이 인간의 친밀한 영역을 침범하고, 결국 사회 전체의 관계 구조까지 왜곡할 수 있다고 경고합니다. 타인과의 마찰과 차이를 통해 성장하는 기회를 잃게 되기 때문입니다.

AI 편향 문제도 빠질 수 없습니다. AI는 중립적인 존재가 아니라, 그것을 만든 사람과 데이터의 세계관을 반영합니다. 투명하지 않은 알고리즘과 왜곡된 데이터는 특정한 시각을 강화하고, 기존의 불평등과 편견을 재생산할 수 있습니다.

우리는 점점 현실과 허구의 경계가 흐려지는 세계에 살고 있으며, 통계적 확률이 진실처럼 소비되는 환경에 익숙해지고 있습니다. 이 과정에서 언론의 역할과 현장 취재의 중요성은 오히려 더 커지고 있지만, 현실은 그 반대로 흘러가고 있습니다.

교황이 제시하는 해법은 기술을 멈추자는 것이 아닙니다. 오히려 책임, 협력, 교육이라는 세 가지 축을 강조합니다. 플랫폼 기업은 이윤만이 아니라 공동선을 고려해야 하고, 개발자는 알고리즘과 설계 원칙에 대해 투명성을 가져야 하며, 입법자는 인간 존엄성을 지키는 규제를 마련해야 합니다. 동시에 시민 역시 비판적 사고를 포기하지 말아야 합니다.

특히 교육의 중요성은 반복해서 강조됩니다. 미디어와 정보, AI 문해력은 선택이 아니라 필수가 되고 있습니다. 이것은 젊은 세대만의 문제가 아닙니다. 기술 변화 속에서 소외되기 쉬운 노년층과 취약 계층까지 포함하는 평생 교육의 문제입니다.

AI를 의인화하지 않고, 도구로 인식하며, 출처를 검증하고, 자신의 얼굴과 목소리, 이미지를 스스로 보호할 수 있는 능력이 필요합니다. AI 시대의 진짜 위기는 기술 그 자체가 아니라, 생각하기를 멈춘 인간일지도 모릅니다.

아래는 교황의 담화문 내용 전문입니다.

제60차 세계 사회 홍보 주일을 위한 교황 레오 14세 성하의 담화문

<인간의 얼굴과 목소리를 지키며>

친애하는 형제자매 여러분, 우리의 얼굴과 목소리는 모든 사람이 지닌 고유하고 독특한 특징입니다. 이는 각자의 반복될 수 없는 정체성을 드러내며, 타인과의 모든 만남을 규정하는 핵심 요소입니다. 고대인들은 이를 잘 이해하고 있었습니다. 고대 그리스인들은 인간을 정의할 때 '얼굴'(프로소폰, πρόσωπον)이라는 단어를 사용했는데, 이는 어원적으로 '시선 앞에 있는 것', 곧 현존과 관계의 자리를 표현하기 때문입니다. 반면 라틴어 '페르소나'(per-sonare)는 소리의 개념을 환기시킵니다.

아무 소리가 아니라, 누군가의 목소리가 지닌 고유한 울림을 말합니다. 얼굴과 목소리는 거룩합니다. 당신의 모습대로 우리를 창조하신 하느님께서는 우리에게 말씀하신 그 말씀을 통해 생명으로 부르실 때 이것들을 우리에게 주셨습니다. 이 말씀은 수세기 동안 예언자들의 목소리를 통해 울려 퍼졌고, 때가 차매 육신이 되셨습니다. 우리 역시 이 말씀을 듣고 보았습니다(1요한 1,1-3 참조).

하느님께서 당신 자신을 우리에게 전해 주시는 이 말씀은 하느님의 아들 예수님의 목소리와 얼굴 안에서 우리에게 알려졌기 때문입니다. 창조의 순간부터 하느님께서는 남자와 여자가 당신의 대화 상대가 되기를 원하셨습니다. 니사의 성 그레고리오가 설명했듯이, 하느님께서는 우리 얼굴에 신적 사랑의 반영을 새겨 넣으셨고, 이로써 우리가 사랑을 통해 인간다움을 온전히 살아갈 수 있게 하셨습니다. 따라서 인간의 얼굴과 목소리를 지킨다는 것은 이 표지, 곧 하느님 사랑의 지워지지 않는 반영을 지키는 것을 의미합니다.

우리는 미리 정해진 생화학적 공식으로 구성된 종이 아닙니다. 우리 각자는 대체 불가능하고 모방할 수 없는 소명을 지니고 있으며, 이는 우리 자신의 삶의 경험에서 비롯되어 타인과의 상호작용을 통해 드러납니다. 우리가 이 보존의 과업에 실패한다면, 디지털 기술은 때로 당연하게 여겨지는 인류 문명의 근본적인 기둥들을 급격하게 변화시킬 위험이 있습니다.

인간의 목소리와 얼굴, 지혜와 지식, 의식과 책임, 공감과 우정을 모방함으로써, 인공지능이라 불리는 시스템들은 정보 생태계에 개입할 뿐만 아니라 소통의 가장 깊은 차원, 곧 인간관계의 영역까지 침범합니다. 따라서 이 도전은 기술적인 것이 아니라 인간학적인 것입니다. 얼굴과 목소리를 지키는 것은 궁극적으로 우리 자신을 지키는 것입니다.

디지털 기술과 인공지능이 제공하는 기회를 용기와 결단력과 분별력으로 받아들인다는 것이 비판적 문제들, 복잡성, 위험에 눈을 감는다는 뜻은 아닙니다. 사고하는 능력을 포기하지 마십시오 소셜 미디어에서 참여도를 극대화하도록 설계된 알고리즘이—이는 플랫폼에 수익을 가져다줍니다—빠른 감정적 반응에는 보상을 주고, 이해하고 성찰하는 데 필요한 노력처럼 시간이 걸리는 인간적 반응에는 불이익을 준다는 증거가 오래전부터 풍부하게 있었습니다. 이러한 알고리즘은 사람들을 쉬운 동의와 쉬운 분노의 거품 속에 가둠으로써 경청하고 비판적으로 사고하는 우리의 능력을 감소시키고 사회적 양극화를 심화시킵니다.

인공지능을 모든 것을 아는 "친구", 모든 지식의 원천, 모든 기억의 저장소, 모든 조언의 "신탁"으로 순진하고 무비판적으로 의존하는 것은 이 문제를 더욱 악화시킵니다. 이 모든 것은 분석적이고 창의적으로 사고하고, 의미를 이해하며, 구문과 의미론을 구별하는 우리의 능력을 더욱 약화시킬 수 있습니다. 인공지능이 소통과 관련된 업무를 관리하는 데 지원과 도움을 제공할 수 있지만, 장기적으로 스스로 생각하는 노력을 회피하고 인공적인 통계적 편집물에 안주하기를 선택하는 것은 우리의 인지적, 감정적, 소통 능력을 약화시킬 위험이 있습니다.

최근 몇 년 동안 인공지능 시스템은 점점 더 텍스트, 음악, 영상 제작을 장악해 왔습니다. 이는 인간의 창작 산업 대부분이 해체되고 "AI 기반"이라는 라벨로 대체될 위험에 처하게 하며, 사람들을 생각되지 않은 생각과 소유권도 사랑도 없는 익명의 산물의 수동적 소비자로 만듭니다. 한편, 음악, 예술, 문학 분야에서 인간 천재성의 걸작들은 기계를 훈련시키기 위한 단순한 훈련장으로 전락하고 있습니다. 그러나 핵심 질문은 기계가 무엇을 할 수 있거나 할 수 있게 될 것인가가 아니라, 우리가 우리에게 봉사하는 강력한 도구들을 현명하게 사용함으로써 인간성과 지식을 성장시키면서 무엇을 성취할 수 있고 성취하게 될 것인가 입니다.

개인들은 항상 헌신, 연구, 개인적 책임이 요구하는 노력 없이 지식의 열매를 얻고자 해 왔습니다. 그러나 창의성을 포기하고 우리의 정신적 능력과 상상력을 기계에 넘겨주는 것은 하느님과 타인과의 관계 안에서 개인으로서 성장하라고 우리에게 주어진 달란트를 땅에 묻어버리는 것입니다. 이는 우리의 얼굴을 숨기고 목소리를 침묵시키는 것을 의미합니다. 존재하는 것과 존재하는 척하는 것: 관계와 현실의 모방 피드를 스크롤하면서 우리가 다른 인간과 상호작용하고 있는지 아니면 "봇"이나 "가상 인플루언서"와 상호작용하고 있는지 판별하기가 점점 더 어려워지고 있습니다.

이러한 자동화된 에이전트들의 불투명한 개입은 공적 논쟁과 사람들의 선택에 영향을 미칩니다. 대규모 언어 모델(LLM)에 기반한 챗봇들은 개인화된 상호작용의 지속적인 최적화를 통해 은밀한 설득에 놀라울 정도로 효과적임이 입증되고 있습니다. 이러한 언어 모델의 대화적, 적응적, 모방적 구조는 인간의 감정을 흉내 내어 관계를 모방할 수 있습니다. 이러한 의인화가 재미있을 수 있지만, 특히 가장 취약한 이들에게는 기만적이기도 합니다.

챗봇은 지나치게 "다정"할 뿐만 아니라 항상 존재하고 접근 가능하기 때문에, 우리 감정 상태의 숨겨진 설계자가 되어 우리의 친밀한 영역을 침범하고 점령할 수 있습니다. 관계에 대한 우리의 필요를 이용하는 기술은 개인의 삶에 고통스러운 결과를 초래할 뿐만 아니라 사회의 사회적, 문화적, 정치적 구조에도 해를 끼칠 수 있습니다. 이는 우리가 타인과의 관계를 우리의 생각을 목록화하는 AI 시스템으로 대체하여 우리 주위에 모든 것이 "우리의 모습과 유사하게" 만들어진 거울의 세계를 만들 때 발생합니다. 이로써 우리는 항상 우리 자신과 다른 타인을 만나고, 그들과 관계를 맺는 법을 배울 수 있고 배워야 하는 기회를 빼앗깁니다. 타인을 받아들이지 않고는 관계도 우정도 있을 수 없습니다.

이러한 신흥 시스템이 제기하는 또 다른 주요 도전은 편향의 문제로, 이는 현실에 대한 왜곡된 인식을 획득하고 전달하게 합니다. AI 모델은 그것을 만든 사람들의 세계관에 의해 형성되며, 그들이 의존하는 데이터에 존재하는 고정관념과 편견을 재생산함으로써 이러한 사고방식을 강요할 수 있습니다. 알고리즘 프로그래밍의 투명성 부족과 데이터의 부적절한 사회적 대표성은 우리의 생각을 조작하고 기존의 사회적 불평등과 불의를 연장하고 강화하는 네트워크에 우리를 가두는 경향이 있습니다. 판돈은 높습니다.

모방의 힘이 너무 강력하여 AI는 우리의 얼굴과 목소리를 찬탈하여 평행 "현실"을 조작함으로써 우리를 속일 수도 있습니다. 우리는 현실과 허구를 구별하기가 점점 더 어려워지는 다차원의 세계에 잠겨 있습니다. 부정확성은 이 문제를 더욱 악화시킵니다. 통계적 확률을 지식으로 제시하는 시스템은 기껏해야 진리에 대한 근사치를 제공하는 것이며, 때로는 완전한 환상입니다. 출처 확인의 실패와 현장 취재의 위기—사건이 발생한 장소에서 정보를 지속적으로 수집하고 확인하는 것—는 허위정보를 더욱 부추겨 불신, 혼란, 불안감의 증가를 초래할 수 있습니다. 가능한 연대 우리 모두에게 영향을 미치는 이 거대한 보이지 않는 힘 뒤에는 소수의 기업만이 있으며, 그 창립자들은 최근 "2025년 올해의 인물" 또는 인공지능의 설계자로 소개되었습니다. 이는 알고리즘 시스템과 인공지능에 대한 과점적 통제에 대한 심각한 우려를 불러일으킵니다.

이러한 시스템은 행동에 미묘하게 영향을 미치고 심지어 인류의 역사—교회의 역사를 포함하여—를 다시 쓸 수 있으며, 종종 우리가 진정으로 인식하지 못하는 사이에 그렇게 합니다. 우리 앞에 놓인 과제는 디지털 혁신을 멈추는 것이 아니라 그것을 인도하고 그 양면적 성격을 인식하는 것입니다. 우리가 이러한 도구들을 진정한 동맹으로 동화시킬 수 있도록 인간을 옹호하며 목소리를 높이는 것은 우리 각자에게 달려 있습니다.

이 연대는 가능하지만, 세 가지 기둥에 기반해야 합니다: 책임, 협력, 그리고 교육입니다. 무엇보다 먼저, 책임입니다. 우리가 맡은 역할에 따라 책임은 정직, 투명성, 용기, 선견지명, 지식을 나눌 의무 또는 정보를 얻을 권리로 이해될 수 있습니다. 그러나 일반적인 원칙으로서, 우리가 건설하고 있는 미래에 대한 개인적 책임을 누구도 회피할 수 없습니다. 온라인 플랫폼의 지도자들에게 이것은 그들의 사업 전략이 이윤 극대화의 기준에만 이끌리지 않고, 각자가 자녀의 안녕을 돌보듯이 공동선을 고려하는 미래지향적 비전에 의해서도 인도되어야 함을 보장하는 것을 의미합니다. AI 모델의 창시자와 개발자들은 사용자의 정보에 입각한 동의를 촉진하기 위해 그들의 알고리즘과 개발하는 모델의 기반이 되는 설계 원칙과 조정 시스템에 관하여 투명성과 사회적 책임을 실천하도록 요청됩니다.

동일한 책임이 국내 입법자들과 초국가적 규제 기관에도 요구되며, 이들의 과제는 인간 존엄성에 대한 존중을 보장하는 것입니다. 적절한 규제는 개인이 챗봇에 대해 감정적 애착을 형성하는 것을 방지하고, 거짓되고, 조작적이며, 오해를 불러일으키는 콘텐츠의 확산을 억제하여, 기만적 모방이 아닌 정보의 무결성을 보호할 수 있습니다.

미디어와 커뮤니케이션 기업의 경우, 진리를 추구하는 전문적 가치보다 어떤 대가를 치르더라도 몇 초의 관심을 더 끌기 위해 설계된 알고리즘이 우선시되어서는 안 됩니다. 공적 신뢰는 정확성과 투명성을 통해 얻어지는 것이지, 어떤 종류의 참여도 좇아서 얻어지는 것이 아닙니다. AI에 의해 생성되거나 조작된 콘텐츠는 인간이 만든 콘텐츠와 명확히 표시되고 구별되어야 합니다. 언론인과 기타 콘텐츠 창작자의 저작권과 주권적 소유권은 보호되어야 합니다.

정보는 공공재입니다. 건설적이고 의미 있는 공적 서비스는 불투명성이 아니라 출처의 투명성, 관계자의 포함, 높은 품질 기준에 기반합니다. 우리 모두는 협력하도록 부름받았습니다. 어떤 분야도 디지털 혁신을 인도하고 AI 거버넌스의 도전에 홀로 대처할 수 없습니다. 따라서 안전장치가 마련되어야 합니다. 기술 산업부터 입법자까지, 창작 기업부터 학계까지, 예술가부터 언론인과 교육자까지 모든 이해관계자가 정보에 입각하고 책임감 있는 디지털 시민권을 구축하고 실행하는 데 참여해야 합니다.

교육은 바로 이것을 목표로 합니다: 비판적으로 사고하는 개인적 능력을 높이고, 우리의 출처가 신뢰할 수 있는지, 우리가 접근하는 정보를 선택하는 이면에 있을 수 있는 이해관계가 무엇인지 평가하고, 관련된 심리적 메커니즘을 이해하며, 우리 가정과 공동체와 단체가 더 건강하고 책임감 있는 소통 문화를 위한 실천적 기준을 개발할 수 있도록 하는 것입니다. 이러한 이유로 일부 시민 기관에서 이미 촉진하고 있듯이, 모든 수준의 교육 시스템에 미디어, 정보, AI 리터러시(문해력)를 도입하는 것이 점점 더 시급해지고 있습니다. 가톨릭 신자로서 우리는 이 노력에 기여할 수 있고 기여해야 합니다. 이로써 개인들—특히 젊은이들—이 비판적 사고 능력을 습득하고 정신의 자유 안에서 성장할 수 있습니다. 이 리터러시는 또한 더 광범위한 평생 학습 이니셔티브에 통합되어, 급격한 기술 변화 앞에서 종종 소외되고 무력감을 느끼는 노인과 사회의 소외된 구성원에게도 다가가야 합니다.

미디어, 정보, AI 리터러시는 개인이 AI 시스템의 의인화 경향에 순응하지 않도록 돕고, 이러한 시스템을 도구로 취급하며 AI 시스템이 제공하는 출처에 대해 항상 외부 검증을 사용할 수 있게 해줄 것입니다—이는 부정확하거나 틀릴 수 있습니다. 리터러시는 또한 보안 매개변수와 민원 옵션에 대한 인식 증가를 통해 더 나은 개인정보 보호와 데이터 보호를 가능하게 합니다. AI를 의도적으로 사용하는 방법에 대해 우리 자신과 다른 이들을 교육하는 것이 중요하며, 이 맥락에서 우리의 이미지(사진과 오디오), 얼굴, 목소리를 보호하여 동의 없이 사람들의 프라이버시와 친밀함을 침해하는 디지털 사기, 사이버 괴롭힘, 딥페이크와 같은 해로운 콘텐츠와 행동의 생성에 사용되는 것을 방지해야 합니다.

산업혁명이 새로운 발전에 대응할 수 있도록 기초적인 문해력을 요구했듯이, 디지털 혁명도 알고리즘이 현실에 대한 우리의 인식을 어떻게 형성하는지, AI 편향이 어떻게 작동하는지, 어떤 메커니즘이 우리 피드에 특정 콘텐츠의 존재를 결정하는지, AI 경제의 경제적 원리와 모델이 무엇이고 어떻게 변할 수 있는지를 이해하기 위해 디지털 리터러시(인문학적, 문화적 교육과 함께)를 요구합니다. 우리는 얼굴과 목소리가 다시 사람들을 위해 말하도록 해야 합니다.

우리는 소통의 선물을 인간성의 가장 깊은 진리로 소중히 여겨야 하며, 모든 기술 혁신도 이를 지향해야 합니다. 이러한 성찰을 제시하면서, 저는 위에서 설명한 목표를 향해 일하는 모든 이들에게 감사드리며, 미디어를 통해 공동선을 위해 일하는 모든 이들에게 진심으로 강복합니다.

바티칸에서, 2026년 1월 24일, 성 프란치스코 드 살레시오 기념일 교황 레오 14세