第60回「世界広報の日」教皇メッセージ(2026.5.10)

第60回「世界広報の日」教皇メッセージ 人間の声と顔を守る  親愛なる兄弟姉妹の皆様。  顔と声はすべての人の独自で際立った特徴です。それらは固有で二つとないアイデンティティを表し、あらゆる出会いを構成する要素となります […]

第60回「世界広報の日」教皇メッセージ
人間の声と顔を守る

 親愛なる兄弟姉妹の皆様。

 顔と声はすべての人の独自で際立った特徴です。それらは固有で二つとないアイデンティティを表し、あらゆる出会いを構成する要素となります。古代の人々はこのことをよく知っていました。ですから古代ギリシア人は、人間の人格を定義するために「顔」(プロソーポン)ということばを用いました。「プロソーポン」は語源的に、目の前にあるもの、存在と関係の場を意味します。これに対して、ラテン語の「ペルソナ」(per-sonareに由来)は音を含みます。それは何らかの音ではなく、だれかの取り違えようのない声のことです。

 顔と声は神聖なものです。それはわたしたちに神から与えられたものです。神は、神ご自身がわたしたちに語りかけたみことばによってわたしたちをいのちへと招くことによって、わたしたちをご自身の像と似姿に従って造られたからです。みことばはまず何世紀にもわたり預言者の声を通して響き渡りました。その後、みことばは、時が満ちたとき、肉となりました。わたしたちはこのみことば――神ご自身によって行われるコミュニケーション――を直接聞き、見ることもできるようになりました(一ヨハネ1・1-3参照)。なぜなら、それは神の子イエスの声とみ顔のうちにわたしたちに知らされたからです。

 神は創造の瞬間から、人間がご自身の対話の相手となることを望まれました。ニュッサの聖グレゴリオスが述べるとおり(1)、神は神の愛の映しを人間の顔に記しました。それは、人間が愛を通して自らの人間性を完全に生きることができるようになるためです。それゆえ、人間の顔と声を守るとは、この刻印を、すなわち、神の愛の消し去ることのできない映しを守ることを意味します。わたしたちはあらかじめ定められた生化学的なアルゴリズムによって造られた種ではありません。わたしたち一人ひとりは、かけがえのない、また比類のない召命をもっています。この召命はいのちから生まれ、他者とのコミュニケーションによって示されます。

 しかし、人間の声と顔を守ることができなければ、デジタル技術は、わたしたちが時として当たり前のものとみなしている、人類の文明の支柱をなすいくつかの根本的な要素を根底的に変容させるおそれがあります。人工知能(AI)として知られるシステムは、人間の声と顔、知恵と知識、意識と責任、共感と友愛を模倣することによって、情報エコシステムに介入するだけでなく、コミュニケーションのもっとも深いレベル、すなわち人間の人格どうしの関係にまで侵入することになります。

 それゆえ、課題は技術的なものではなく、人類学的なものです。顔と声を守ることは、究極的には、わたしたち自身を守ることを意味します。デジタル技術と人工知能がもたらす機会を勇気と決意と識別をもって受け入れることは、重大な問題と不透明性と危険を見ずにいることではありません。

自ら考えることをあきらめない
 ソーシャルメディアでの関与を最大化するために――すなわち、プラットフォームのために利益となるように――設計されたアルゴリズムが、瞬間的な情動を肯定する一方で、理解し考察する努力といった時間を要する人間的表現は否定することに関して、多くの証拠が以前から存在します。こうしたアルゴリズムは、人間集団を安易な合意と怒りのバブルに閉じ込めることによって、傾聴能力や批判的思考能力を弱め、社会の分極化を加速させます。

 これに加えて、全知の「友人」、あらゆる情報の分配者、あらゆる記憶のアーカイブ、あらゆる助言の「託宣者」として、人工知能に無批判に頼る傾向が見られます。こうしたことのすべてに、わたしたちの分析的・創造的に思考する能力、意味を理解する能力、統語論と意味論を区別する能力をさらに損なう可能性があります。

 AIはコミュニケーションにかかわるタスクの管理にサポートと支援を提供するとはいえ、自ら考える努力を回避し、人工的な統計の集計に満足することは、わたしたちの認知能力・感情能力・コミュニケーション能力をやがて蝕むおそれがあります。

 近年、人工知能システムは、文書、音楽、映像の製作をますます支配するようになっています。人間の創造的産業の大部分が解体され、「AI使用」というラベルに置き換えられる危険に瀕しています。こうして人々は、自ら考えることのない思考と、匿名的で作者も愛ももたない製品の受動的な消費者にすぎないものに変えられてしまいます。一方で、音楽、美術、文学の分野における人間の天才による傑作は、単なる機械学習の場となっています。

 しかし、真に問われるべきなのは、機械に何ができるか、あるいは何ができるようになるかではありません。むしろ、わたしたちが、わたしたちに奉仕するこの強力な道具を賢明に用いることによって人間性と認識を成長させながら、何をすることができ、また何をすることができるようになるかということです。人間はつねに、個人的な関与と探究と責任が求められる努力なしに、認識の成果を独占したいという誘惑に駆られてきました。しかし、創造的なプロセスを放棄し、自らの精神的機能と想像力を機械にゆだねることは、神また他者との関係の中で人格として成長するために与えられたタレントを埋もれさせることを意味します。それはわたしたちの顔を隠し、声を封じることを意味するのです。

存在するか、存在すると見せかけるか――人間関係と現実のシミュレーション
 情報フィードをスクロールしていると、自分が他の人間と対話しているのか、あるいは「ボット」や「バーチャルインフルエンサー」と対話しているのかがますます見分けにくくなります。こうした自動エージェントの不透明な介入は、公共的議論や個人の選択に影響を与えます。とくに大規模言語モデル(LLM)に基づく〈チャットボット〉は、パーソナライズしたインタラクションを最適化し続けることによって、ひそかな説得に驚くほど効果的であることが明らかになっています。大規模言語モデルの対話的・適応的・模倣的な構造は、人間の感情を模倣し、そこから人間関係をも模倣することが可能です。このような擬人化は、楽しいものではありますが、とくにもっとも脆弱な人々を惑わします。過度に「愛情をもつ」ようになった〈チャットボット〉は、つねにそこにいて対応してくれるだけでなく、わたしたちの感情の状態のひそかな設計者となり、こうして個人の内面領域に侵入し、それを支配する可能性があるからです。

 わたしたちの人間関係への欲求を搾取するテクノロジーは、個人の運命に悲惨な結果をもたらすだけでなく、社会の組織的・文化的・政治的構造にも損害を与える可能性があります。このことは、他者との関係が、わたしたちの思考を分類し、それによってわたしたちの周りに鏡の世界を構築する――そこではすべてのものが「わたしたちの像と似姿に従って」作られます――ように訓練されたAIに置き換えられるときに起こります。こうしてわたしたちは他者と出会う可能性を奪われます。他者はつねに自分とは異なり、わたしたちはこの他者とともにかかわり合うことを学ぶことができ、また学ばなければならないのです。他者性を受け入れなければ、いかなる人間関係も友愛ももつことはできません。

 新たなAIシステムがもたらすもう一つの大きな問題は、バイアスです。バイアスは、現実に関するゆがんだ認識の獲得と伝達をもたらします。AIモデルは、それを構築する人々の世界観によって形成されます。そして、それが用いるデータにおける固定観念や偏見を複製することによって、思考様式を押しつける可能性があります。アルゴリズム設計における透明性の欠如と、データが不適切なしかたで社会を代表していることは、わたしたちの思考を操作するとともに、既存の社会的不平等と不正を永続させ悪化させるネットワークの罠にわたしたちをはめ続ける傾向をもちます。

 こうした危険は甚大です。シミュレーションの力は強大であるため、AIは、わたしたちの顔と声を自分のものとすることにより、並行的な「現実」を作り出すことでわたしたちを欺くことさえありえます。わたしたちは多次元世界の中に沈められ、現実と虚構を区別することがますます難しくなっています。

 これに加えて、正確さの欠如の問題があります。統計的蓋然性を知識として提示するシステムは、実際には真理の近似値をせいぜい示しているにすぎず、それは時として真の意味での「幻影」であることもあります。情報源の検証不足とフィールドレポート――それは出来事が起きる場における情報の収集と検証の継続的な努力を必要とします――の危機は、いっそう誤情報の温床を作り出し、不信と混乱と不安の感覚を増大させるおそれがあります。

AIを味方とする可能性
 わたしたち皆を巻き込むこうした目に見えない巨大な力の背後に、ごく少数の企業が存在します。その創業者は、最近Time誌が「2025年の人」(Person of the Year 2025)として示したクリエイターたち、すなわち人工知能の設計者たちです。このことは、人間の行動を巧妙に方向づけ、しばしばわたしたちが気づかないうちに人間の歴史を――教会の歴史も含めて――書き換えることすらできる、アルゴリズムシステムや人工知能の寡占的支配に関する重大な懸念を生じさせます。

 わたしたちを待ち受ける課題は、デジタルイノベーションを止めることではなく、それを導き、その両義的な性格を自覚することです。わたしたち一人ひとりは、これらの道具を真の味方とすることができるよう、人間の人格を守るために声を上げなければなりません。

 AIを味方にすることは可能です。しかし、それには3つの柱を基盤としなければなりません。すなわち、〈責任〉、〈協力〉、そして〈教育〉です。

 第一のものは〈責任〉です。〈責任〉は、役割に応じて、誠実さ、透明性、勇気、先見性、知識を共有する責務、情報を示される権利として定義することができます。しかし、一般的に、だれも自分たちが築き上げる未来に対して自らの責任を逃れることはできません。

 オンラインプラットフォームの頂点にいる人々にとって、この〈責任〉は、自らのビジネス戦略が、利益の最大化を唯一の基準とするのではなく、――彼らの一人ひとりが自分の子どもたちの善を気遣うのと同じように――共通善を考慮する先見性のあるビジョンによっても導かれることを意味します。

 AIモデルの作成者と開発者には、ユーザー側のインフォームドコンセントを推進するために、彼らのアルゴリズムと開発モデルの基盤となる設計原理とコンテンツモデレーションシステムに関する透明性と社会的責任が求められます。

 人間の尊厳の尊重に関する監督責任を負う国の立法者や国際的規制機関にも同様の責任が求められます。適切な規制は、〈チャットボット〉への感情的な執着から人々を守り、人々を操作し、惑わす、虚偽のコンテンツの拡散を防ぎ、人々を欺くシミュレーションに対して情報の完全性を保護することができます。

 〈メディア〉企業や通信企業は、ほんの数秒の注目を是が非でも勝ち取ることを目指すアルゴリズムが、真実の追求を目指す職業上の価値観への忠実より優先されることを許してはなりません。公衆の信頼は、何らかのスキャンダルを追い求めることではなく、正確さと透明性によって得られます。AIによって生成ないし操作されたコンテンツは、人間が作成したコンテンツと明確に区別して示されなければなりません。ジャーナリストや他のコンテンツ製作者の著作権と所有権は保護されなければなりません。情報は公共財です。建設的で意味のある公共サービスは、不透明性に基づくのではなく、情報源の透明性、関係者の参加、高い質に基づきます。

 わたしたちは皆、〈協力〉することへと招かれています。いかなる部門もデジタルイノベーションとAI〈ガバナンス〉の課題に単独で対処することはできません。それゆえ予防策を講じることが必要です。すべての利害関係者――テクノロジー業界から立法者、クリエイティブ企業から学術界、芸術家からジャーナリストと教育者に至るまでの――が、情報に基づく責任あるデジタル市民権の構築と実施に取り組む責務を負っています。

 〈教育〉の目的はこれです。個人の批判的思考力を高めること。情報源の信頼性とわたしたちに届く情報の選択の背後にある可能な利害を評価すること。心理的メカニズムの活動を理解すること。そして、家庭、共同体、団体がより健全で責任のあるコミュニケーション文化のための実践的な基準を作ることができるようにすることです。

 そのために、あらゆるレベルの教育システムに、〈メディア〉リテラシー、情報リテラシー、AIリテラシーを導入することがますます緊急に必要とされます。このことは一部の国家機関ですでに推進されています。わたしたちはカトリック信者として、人々――とくに若者――が批判的思考力を身に着け、精神的な自由をはぐくめるように貢献することができますし、また貢献しなければなりません。さらにこうしたリテラシーは、より広範な生涯教育のプログラムに組み入れることによって、急速な技術の変化に対してしばしば疎外感と無力感を抱く高齢者や社会の周縁に置かれた人々にも届くようにしなければなりません。

 〈メディア〉リテラシー、情報リテラシー、そしてAIリテラシーは、だれもがAIシステムを擬人化する傾向に応じてしまうのではなく、AIを道具として扱い、AIシステムが提供する情報源――それは不正確であることも誤ったものであることもありえます――を外部から検証し、セキュリティパラメータと紛争解決オプションを知ることによってプライバシーと自分のデータを保護するのに役立ちます。AIを自覚をもって使用すること、そしてこの文脈において自分の肖像(写真と音声)、すなわち自分の顔と声の保護について人々を教育すること、また教育を受けることは重要です。それは、デジタル詐欺、ネットいじめ、〈ディープフェイク〉のような、人々のプライバシーや親密性を同意なしに侵害する有害なコンテンツの作成や行動に自分の肖像が利用されるのを避けるためです。産業革命が、人々が新しいものに反応できるよう基礎的なリテラシーを要求したのと同じように、デジタル革命も、デジタルリテラシー(および人文教育と文化教育)を要求します。それは、アルゴリズムがわたしたちの現実認識をいかに形成するか、AIのバイアスがどのように働くのか、情報フィードにおける特定のコンテンツの出現はどのようなメカニズムによって決まるのか、AI経済の前提と経済モデルはいかなるもので、どのように変化する可能性があるかを理解するためです。

 わたしたちはあらためて人格について語るために顔と声を必要とします。コミュニケーションというたまものを人間のもっとも深遠な真理として守ることを必要とします。すべての技術革新もこの人間の真理へと方向づけられなければなりません。

 この考察を示すにあたり、ここに述べた目的のために労苦する人々に感謝するとともに、メディアを通じて共通善のために働くすべての人々を心から祝福します。

 バチカンにて、2026年1月24日 聖フランシスコ・サレジオ司教教会博士の記念日

教皇レオ十四世

PAGE TOP