教皇庁教理省、文化教育省 人工知能と人間知能の関係に関する覚書 Antiqua et nova: Note on the Relationship Between Artificial Intelligence and […]
人工知能と人間知能の関係に関する覚書
Antiqua et nova: Note on the Relationship Between Artificial Intelligence and Human Intelligence
目次
一 序文
二 人工知能とは何か
三 哲学的・神学的伝統における知能
合理性
身体性
関係性
真理との関係
世界の管理
人間知能の総合的理解
AIの限界
四 AIの開発と使用を導く倫理の役割
人間の自由と決定を助ける
五 特定の諸問題
AIと社会
AIと人間関係
AI、経済、労働
AIと健康管理業務
AIと教育
AI、誤情報、ディープフェイク、濫用
AI、プライバシー、監視
AIと、わたしたちがともに暮らす家の保護
AIと戦争
AIと、人類の神との関係
六 結びの考察
真の知恵
注
一 序文
1 新しい知恵と古い知恵の両方によって(マタ13・52参照)、わたしたちは科学と技術の進歩、とくに人工知能(AI)の最近の発展がもたらした現在の挑戦と機会について考察するよう招かれます。キリスト教の伝統は知能のたまものを、人間が「神の像として」(創1・27)造られたことの本質的な側面と見なします。人間の人格に関する総合的な展望と、地を「耕し」、「守る」ようにという聖書の呼びかけから出発して、教会は、この知能のたまものを、創造された世界の管理における理性と技術的能力の責任ある使用を通じて表明しなければならないことを強調します。
2 教会は、科学、技術、芸術、その他の人間の営みの進展を励まします。それらを「男と女が神に協力して被造界を完成させるという仕事」(1)の一部と見なすからです。シラが述べるとおり、神は「自ら人々にいやしの知識を授け、その驚嘆すべき業のゆえにあがめられる」(シラ38・6)のです。人間の能力と創造性は神に由来します。それらは正しく用いられるならば、神の知恵といつくしみを映し出すことにより神に栄光を帰します。このことに照らすなら、わたしたちが自らに「人間である」とは何を意味するかを問うとき、自分たちの科学的・技術的能力の考察を排除することはできません。
3 このような展望の下に、この『覚書』はAIが引き起こした人間論的・倫理的挑戦を考察します。この問題はとくに重大です。なぜなら、この技術の目的の一つは、この技術を作り出した人間知能そのものを模倣することだからです。たとえば、他の多くの人間の創造物と異なり、AIは、人間の創造性の結果によって訓練された後、人間がなしうることにしばしば匹敵する、ないしそれを凌駕する速さと技能のレベルで新たな「人工的産物」を生み出すことができます。すなわち、人間の作品と区別しがたい文書や画像を生成するのです。このことは、公共の場で真理の危機を増大させることにおいてAIが果たす潜在的な役割に関する重大な懸念を引き起こします。さらにこの技術は、学習し、ある種の選択を自律的に行い、新たな状況に適応して、プログラマーが予期していない解決をもたらすことができるように設計されています。そこから、社会全体にとって広範な意味をもつ、倫理的責任と人間の安全確保に関する根本的な問いが生じます。この新たな状況は、多くの人に、人間であるとはいかなることかを、また世界における人類の役割について考察するよう促しました。
4 これらすべてのことを考慮したうえで、AIが人類の技術とのかかわりにおける新たな重大な局面をもたらしていることに広範なコンセンサスが存在します。このコンセンサスは教皇フランシスコが「時代の転換」(2)と述べたものの中心にAIを位置づけます。AIの影響力は世界中で、人間関係、教育、労働、芸術、保健、法律、戦争、国際関係を含む広い分野で感じられています。AIはより大きな達成目標に向けて急速に進歩しているため、その人間論的・倫理的意味を考察することはきわめて重要です。この考察は、リスクを減少させたり危険を回避したりすることだけでなく、AIの応用が人類の進歩と共通善を推進するために用いられるようにすることを含みます。
5 AIに関する識別に積極的に寄与するために、そして教皇フランシスコの「心の知恵」(3)の回復への呼びかけにこたえて、教会は、この『覚書』の人間論的・倫理的考察を通して自らの経験を提供します。教会は、この問題に関する世界的対話において活発な役割を果たしながら、真理の伝達の使命をゆだねられた人々――両親、教師、牧者、司教を含む――が、配慮と注意をもってこの重大なテーマに自らをささげるよう招きます。この文書はとくにこれらの人々のために書かれたものですが、より広い読者、とくに科学と技術の進歩は人間の人格と共通善に仕えるために方向づけられるべきだ(4)という確信を共有する人々にも読んでいただけることを意図しています。
6 そのため、この文書は、AIにおける知能概念と人間知能における知能概念を区別することから始めます。そこから、教会の哲学的・神学的伝統に根ざした枠組みを明らかにしながら、人間知能に関するキリスト教的理解を探究します。最後に、この文書はAIの発展と使用が人間の尊厳を支持し、人間の人格と社会の総合的な発展を推進することができるための指針を提供します。
二 人工知能とは何か
7 AIにおける「知能」の概念は、さまざまな学問の思想に基づいて時代とともに発展してきました。AIの起源は数世紀前にさかのぼりますが、画期的出来事は一九五六年に生じました。その年、米国のコンピュータ科学者のジョン・マッカーシーが「人工知能」の問題を探求するためにダートマス大学でサマー・ワークショップを開催しました。マッカーシーは「人工知能」を「人間がそのように行動するならば知性的と呼びうるようなしかたで機械を振る舞わせるもの」(5)と定義しました。このワークショップは、人間知性と知能的行動と基本的に結びついた仕事を遂行しうる機械の設計を中心とする研究計画を開始しました。
8 それ以来、AI研究は急速に進展し、きわめて巧妙な課題も遂行しうる複雑なシステムを発展させました(6)。このいわゆる「特定型AI」システムは、典型的には、言語の翻訳、台風の進路の予測、画像の分類、問題への解答、ユーザーの要望に応じたビジュアルコンテンツの製作といった、特定の限定された機能を処理すべく設計されます。AI研究における「知能」の定義はさまざまですが、ほとんどの現代のAIシステム――とくに機械学習を用いるもの――は、論理的演繹ではなく統計的推論に依存します。パターンの特定のために膨大なデータセットを分析することにより、AIは、人間の問題解決に典型的に見られるいくつかの認知的処理を模倣しながら、結果を「予測」(7)し、新しい方法を提案することができます。こうした成果はコンピュータ技術の進歩(ニューラルネットワーク、教師なし学習、進化的アルゴリズムなど)やハードウェアイノベーション(専用プロセッサなど)を通して可能となりました。これらの技術は、AIシステムがさまざまな人的入力にこたえ、新たな状況に適合し、当初プログラマーが予想しなかった新たな解決を提案することを可能にしています(8)。
9 こうした急速な発展により、かつては人間だけが達成していた課題が今やAIにゆだねられています。これらのシステムは、多くの分野、とくにデータ分析、画像認識、医療診断などの専門分野で、人間がなしうることを補完したり、代替することが可能となっています。それぞれの「特定型AI」アプリケーションは特定の課題のために設計されたものですが、多くの研究者は「人工汎用知能」(Artificial General Intelligence: AGI)として知られるものの開発を目指しています。「人工汎用知能」とは、あらゆる認知ドメインを横断して機能し、人間知能の枠内であらゆる課題を処理しうる単一のシステムです。一部の人は、「人工汎用知能」がいつか、人間の知的能力を凌駕する「超知能」(superintelligence)の状態に達する、ないし、バイオテクノロジーの進歩によって「超長寿」(super-longevity)を可能にするとまで主張します。しかし、この人々がこうした変革の可能性を歓迎する一方で、他の人々は、たとえ仮説であっても、これらの可能性がいつか人間の人格をおとしめることを危惧します(9)。
10 このテーマに関するこれをはじめとする多くの見方の基にあるのは、「知能」という用語は人間知能とAIの両方を同じように指すものとして用いうるという暗黙の理解です。人間の場合、知能は人間の人格の全体にかかわる能力ですが、AIの場合、「知能」は機能的に理解されます。しばしばその前提になっているのは、人間精神に特徴的な活動は、機械が複製可能なデジタル化されたステップに解体可能だという考え方です(10)。
11 このような機能的なものの見方は「チューリングテスト」に例示されます。「チューリングテスト」は、人間が機械の振る舞いと人間の振る舞いを区別できない場合に、機械が「知的」といえると考えます(11)。しかし、このコンテキストにおいて、「振る舞い」という用語は、特定の知的課題の処理を指すにすぎず、抽象、感情、創造性、美的・道徳的・宗教的感覚を含む、人間経験の完全な広がりを考慮しません。それは人間精神の特徴である諸表現の完全な領域を包括するものでもありません。その代わりに、AIの場合、システムの「知能」は方法論的に、しかも還元論的にも評価されます。この評価は、その解答がどのように生み出されたかにかかわらず、適切な応答を生み出す能力――この場合には、人間知性と結びついた能力――に基づきます。
12 AIの進歩した特徴は課題を処理する巧妙な能力を生み出しますが、それは考える能力ではありません(12)。この区別はきわめて重要です。「知能」を定義する方法は、人間的思考とAI技術の関係を理解するしかたを不可避的に決定するからです(13)。このことを評価するために、哲学の伝統とキリスト教神学の豊かな内容を思い起こさなければなりません。それらは知能に関する深くより包括的な理解を与えてくれます。この理解こそが、人間の人格の本性、尊厳、使命に関する教会の教えの中心です(14)。
三 哲学的・神学的伝統における知能
合理性
13 人間の自己省察の始まりから、精神は、「人間」とは何かを理解するために中心的な役割を果たしてきました。アリストテレスは「すべての人間は、生まれつき、知ることを欲する」(15)ことを認めました。知ることは、事物の本性と意味を把握する抽象能力によって、人間を動物の世界から区別します(16)。哲学者、神学者、心理学者はこの知的能力の性格を吟味しました。彼らは、人間がいかに世界と世界における自らの位置を理解しているかを探究しました。この探究を通じて、キリスト教の伝統は、人間の人格が身体と霊魂から成る存在であることを理解するに至りました。この身体と霊魂はこの世に深く結びつけられているとともに、この世を超越します(17)。
14 古典的伝統において、知能(intellegence)概念はしばしば「理性」(ratio)と「知性」(intellectus)という補完的概念によって理解されました。この二つは切り離された能力ではありませんが、トマス・アクィナスが説明しているとおり、二つは同じ知能が働く二つの様式です。「知性という名称は真理の深い洞察から採られているのに対して、理性という名称は探求と推論とから採られている」(18)。この正確な記述は、人間知能の二つの根本的かつ補完的な次元を明らかにします。知性(intellectus)は真理の直観的な把握を意味します。すなわち、知性は推論自体に先立ち、それを基礎づける、精神の「目」で真理を把握します。理性(ratio)は推論自体――すなわち、判断を導く推論と分析過程に属します。知性と理性はともに、「人間たるかぎりにおける人間に固有なはたらき」(19)である知性認識(intelligere)という行為の二つの側面です。
15 人間の人格を「理性的」存在と定義することは、人格を思考の特定の様式に還元することではありません。むしろそれは、知的に理解する能力が人間の活動のあらゆる側面を形成し、それに浸透していることを認めます(20)。適切に行使されるにせよ、不十分に行使されるにせよ、この能力は人間本性に固有に備わる側面です。この意味で「『理性的』という言葉は人間のあらゆる能力を包括的に意味します。すなわち、知り、理解する能力、意志し、愛し、選び、欲する能力です。さらに『理性的』という言葉は、これらの能力と密接に関連する身体的機能をも意味します」(21)。この包括的な観点は、「神の像」として造られた人間の人格において、いかに理性が、人格の意志と行為を高め、形づくり、造り変える形で統合されているかを強調します(22)。
身体性
16 キリスト教思想は、人間の人格の知的能力を、人間存在を本質的に身体的なものと捉える総合的人間論の枠組みの中で考察します。人間の人格において、精神と物質は「結合した二つの本性ではなく、この結合によってただ一つの本性が形成されています」(23)。いいかえると、霊魂は身体に含まれた人格の単なる非物質的な「部分」ではありませんし、身体もまた触れることのできない「核」を住まわせる外殻ではありません。むしろ、人間の人格全体は、同時に物質的かつ精神的です。この理解は聖書の教えを反映したものです。聖書は、人間の人格を、こうした身体的な実存の内に、またそれを通して、神と他者との関係を(そこから、真に霊的な次元を)生きる存在と見なすからです(24)。この条件の深い意味は、受肉の神秘によって照らし出されます。神は受肉によって自ら肉をとられ、それを「崇高な尊厳にまで高められた」(25)からです。
17 人間の人格は身体的存在に深く根ざしているとはいえ、霊魂によって物質的世界を超越します。霊魂は「ほとんど永遠と時間の地平の上にある」(26)からです。知性の超越の力と意志の冷静な自由は霊魂に属します。この霊魂により人間の人格は「神の知性の光にあずかる」(27)のです。にもかかわらず、人間精神は身体なしでは通常の認識の様式を行使できません(28)。このようにして、人間の人格の知的能力は、人間の人格が「肉体と霊魂とが一体となったものである」(29)ことを認める人間論の不可欠の部分です。
関係性
18 人間の人格は「本性上、人と交わるように方向づけられています」(30)。他者を知る力をもち、愛によっても自らを与え、他者との交わりに入るからです。したがって、人間知能は孤立した能力ではなく、関係性の中で行使されます。すなわち、対話と協力と連帯において完全に表現されるのです。わたしたちは他者とともに学び、他者を通じて学びます。
19 人間の人格の関係的な方向づけは、究極的には、三位一体の神の永遠の自己贈与に基盤を置いています。神の愛は創造とあがないによって現されたからです(31)。人間の人格は「知と愛によって神のいのちにあずかるよう招かれています」(32)。
20 この神との交わりへの招きは、必然的に他者との交わりへの招きと結びついています。神の愛は隣人への愛と切り離すことができません(一ヨハ4・20、マタ22・37-39参照)。キリスト信者はまた、神のいのちにあずかる恵みによって、キリストの満ちあふれるたまものに倣うように招かれます(二コリ9・8-11、エフェ5・1-2参照)。「わたしがあなたがたを愛したように、あなたがたも互いに愛し合いなさい」(ヨハ13・34)というキリストのおきてに従ってです(33)。ご自身を与える神のいのちを反映した、愛と奉仕は、利己主義を超えて、いっそう完全に人間の召命にこたえます(一ヨハ2・9参照)。多くのことを知るよりもいっそう気高いのは、他者への気遣いに献身することです。「たとえ〔……〕あらゆる神秘とあらゆる知識に通じていようとも、〔……〕愛がなければ、無に等しい」(一コリ13・2)。
真理との関係
21 人間知能は究極的に「真理と同一化するようにと造られた神のたまもの」(34)です。「知性」(intellectus)と「理性」(ratio)の二重の意味で、人間知能は人格に単なる感覚的経験や有用性を超えた現実を探究することを可能にします。なぜなら「真理への願望が人間本性そのものの一部をなし〔……〕、事物の原因の探究は、人間精神にとって生得的な特徴」(35)だからです。人間知能は経験的データの限界を超えて「理解可能な実在そのものにまったく確実に到達することができ」(36)ます。現実は常に部分的にしか知ることができませんが、「真理への願望は、理性をさらなる進歩へと駆り立てます。それだけでなく、いつもすでに到達しているものよりもさらに大きくなろうとする自分の能力を意識して、押しつぶされそうになるのです」(37)。真理自体は人間知能の限界を超えるものだとはいえ、あらがいがたいしかたで人間知能を引きつけます(38)。この引力に引き寄せられて、人間の人格は「いっそう深い真理」(39)を求めるように導かれます。
22 このような真理の探究への生得的な要求は、意味理解と創造性という特別に人間的な能力にとくにはっきりと認められます(40)。この二つの能力により、真理への探究は「人格の尊厳とその社会的本性にふさわしいしかたで」(41)行われます。同じように、真理への堅固な方向づけは、愛のわざが真正で普遍的なものとなるために不可欠です(42)。
23 真理の探究は、物理的な被造世界を超える現実に開かれた態度のうちに最高の表現を見いだします。すべての真理は神のうちに究極的かつ根源的な意味に達します(43)。神に身をゆだねることは「全人格が巻き込まれる一種の基本的選択」(44)です。このようにして人間の人格は完全に自らがそこへと招かれているものとなります。「知性と意志とが、その精神的本性を極限にまで働かせ、こうして各人の自由が十全に生かされる行為を成し遂げることが人間主体に許されるのです」(45)。
世界の管理
24 キリスト教信仰は創造を三位一体の神の自由なわざと見なします。バニョレージョの聖ボナヴェントゥラが説明するとおり、三位一体の神は「栄光を増大するためではなく、その栄光を現し、分かち合うために」(46)創造されました。神はご自身の知恵に従って創造されたので(知9・9、エレ10・12参照)、被造物は神の計画を映し出す内的な秩序を与えられています(創1章、ダニ2・21-22、イザ45・18、詩74・12-17、104編)(47)。この計画において神は、「世を耕し守る」(48)という独自の役割を担うように人間を招きました。
25 職人である神に形づくられた人間は、被造物を「守り」「耕す」(創2・15参照)ことにより、「神の像として」(in imago Dei)造られた存在というアイデンティティを生きます。その際、神の計画に従って被造物を守り、育てるために、知能を用います(49)。このことに関して、人間知能はすべての事物を創造した神の知能を反映します(創1-2章、ヨハ1章参照)(50)。神は被造物を支え続け、ご自身のうちにある究極目的へと導きます(51)。さらに人間は、科学技術における能力を高めるよう招かれています。なぜなら、科学技術を通して神に栄光が帰されるからです(シラ38・6参照)。一方で、こうして被造物との正しい関係において、人間は知能と技術を用いて神と協力し、被造物を神が招いた目的に向けて導きます(52)。他方で、聖ボナヴェントゥラが述べるとおり、被造物自体も、人間精神が「あたかも階段のように一つひとつ昇って至高の原理、すなわち神にまで昇っていく」(53)のを助けます。
人間知能の総合的理解
26 このことに関連して、人間知能は、人格全体が現実に関与するしかたの不可欠な部分を構成する能力として、いっそうはっきりと理解されます。真の関与は、精神的・認知的・身体的・関係的な、人間存在の目的全体を包含することを要求します。
27 この現実への関与は、おのおのの人格が、それぞれの多様な個性において(54)世界を理解し、他者とかかわり、問題を解決し、創造的に表現し、個人の知能のさまざまな次元の調和的な協働を通じて総合的な幸福を追求することによって(55)、さまざまなしかたで展開されます。そこでは、論理・言語能力が用いられますが、現実とかかわる他の様式も使用されます。「生きていない物質のうちに、他の人が気づかないような個別的な形を見分けるすべを知り」(56)、洞察と実践的な技術でそれを生み出す、職人の業を考えてみてください。地球と密着して生きる先住民はしばしば自然とその循環についての深い感覚をもっています(57)。同様に、いうべき正しい言葉を知っている友人、人間関係に熟達した人は、「省察や対話や人々の豊かな出会いの実り」(58)としての知能の模範となります。教皇フランシスコが述べているとおり、「人工知能の時代にあって、わたしたちは詩と愛が人間性を救うために必要であることを忘れてはなりません」(59)。
28 知能に関するキリスト教的理解の中心にあるのは、個人の道徳的・霊的生活と真理を統合し、神のいつくしみと真理に照らして行動を導くことです。神の計画に従って、知能は、その完全な意味で、真であり、善であり、美であるものを味わう能力でもあります。二十世紀のフランスの詩人ポール・クローデルは「喜びのない知能は無だ」(60)といっています。同様に、ダンテは『天国篇』で至高の天に至り、知的喜びの頂点が「愛に満ちている叡智の光、喜びに満ちている真実の善の愛、あらゆる甘美を超越している喜び」(61)のうちにあることをあかしします。
29 それゆえ、知能の適切な理解は、単なる事実の習得や、特定の課題の遂行能力に限定されてはなりません。むしろそれは、人生の究極的な意味に開かれた人格の態度を含み、真であり善であるかたへの方向づけを反映します(62)。人格における神の像の表現として、人間知能は存在の全体に達する力を有します。計測可能なものを超えた完全な存在を観想し、理解したことの意味を把握するからです。信仰者にとって、この能力は、啓示された真理といっそう深くかかわるために理性を用いることによって(intellectus fidei)、神の神秘の知識において成長する力も含みます(63)。真の知能は「聖霊によってわたしたちの心に注がれた」(ロマ5・5)神の愛によって形づくられます。ここから次のことが導かれます。人間知能は本質的に観想的な次元を有します。それは、あらゆる功利主義的な目的を超え、真理であり、善であり、美であるかたへの私欲のない開かれた態度です。
AIの限界
30 これまでの議論に照らして、人間知能と現代のAIシステムの違いが明らかになります。AIは、人間知能と結びついたある種の機能を模倣することのできる特別な技術的成果です。しかしAIは、数量的データと計算論理に基づいて課題を遂行し、目的を達成し、決定を行うことにより働きます。たとえば、AIはその分析力によって、多様な分野からデータを統合し、複雑なシステムを設計し、学際的な結びつきを推進することにおいて優れています。このようにしてAIは「たった一つの視座から、あるいはただ一組の利害関心から扱うことができない」(64)複雑な問題を解くために専門家の助けとなります。
31 しかし、たとえAIがある種の知能の表現を処理し模倣するとしても、それは根本的に論理的・数学的枠組みに制限され続けます。こうした枠組みは内在的な限定を課すものです。これに対して、人間知能は、肉体における無数の生きた経験によって形づくられる、人格の身体的・心理的成長を通じて有機的に発展します。発展したAIシステムは機械学習などの過程を通じて「学習する」ことが可能だとはいえ、この種の訓練は人間知能の発展的な成長と根本的に異なります。人間知能の成長は、感覚的な情報、感情的な反応、社会的な相互関係、それぞれの瞬間の独自の文脈を含む、身体的な経験によって形づくられます。これらの要素が人格の歴史の中で個々人を形成するのです。物理的な身体をもたないAIは、人間の経験と知識の記録を含む膨大なデータセットに基づく計算的推論と学習に依存します。
32 したがって、たとえAIが人間の推論を模倣し、信じられない速度と効率によって特定の課題を処理できるとしても、その計算能力は人間精神のより広い能力の断片を示すにすぎません。たとえば、AIは現在のところ、道徳的識別や、真の関係を築く能力を模倣することができません。さらに、人間知能は、知的・道徳的養成の個人的経験の歴史の中に位置づけられます。こうした知的・道徳的養成が、人生の身体的・感情的・社会的・道徳的・霊的次元を包含する、個人のものの見方を形づくります。AIはこうした完全な理解を示すことができないので、こうした技術にのみ依存し、技術を世界を解釈する主要な手段として扱うアプローチは、「全体を、また物事の間のかかわりを、そしてより広い地平を積極的に評価する姿勢を失わせ」(65)かねません。
33 人間知能は、一義的には、機能的な課題を完成するためのものではなく、現実のあらゆる次元を理解し、それに積極的にかかわるためのものです。それは驚くべき洞察を行う力ももっています。AIは、豊かな身体性も、関係性も、真理と善に開かれた人間的な心ももちません。そのため、その無限のように思われる能力は、現実を把握する人間の力に比すべくもありません。病気や、和解の抱擁や、単なる日没からすら、多くのことを学ぶことができます。実際、わたしたちが人間として行う経験は、新しい地平を開き、新たな知恵に至る可能性を開きます。データだけと働くいかなるデバイスも、わたしたちの人生の中にある、これらのものをはじめとした他の数えきれない経験に匹敵することができません。
34 人間知能とAIとをあまりにも同等のものと見なすことは、どれだけ働けるかに基づいて人間を評価する、機能主義的なものの見方に屈服するおそれがあります。しかし、人格の価値は、特定の技能をもつことや、認識や技術の達成、また個人的な成功に依存するものではありません。むしろそれは、神の像として造られたことに基づく、人格に内在する尊厳に基づきます(66)。この尊厳は、自らの能力を行使できない人々の場合を含めた、あらゆる状況において損なわれることなくとどまります。すなわち、まだ生まれていない胎児、意識のない人格、苦しみのうちにある高齢者といった人々です(67)。この尊厳は、人権(および、とくに「脳神経関連権」[neuro-rights]と呼ばれるもの)の伝統をも支持します。人権は「共通の基盤の探求における重要な合意点」(68)を示します。それゆえ人権は、AIの責任ある開発と使用に関する議論における基本的な倫理的指針として役立ちます。
35 これらすべての点を考慮しながら、教皇フランシスコが述べるとおり、AIとの関連で「『知能』という語の使用自体が誤解を招きます」(69)。そして、人権においてもっとも貴重なことがらを見落とすおそれがあります。このことに照らして、AIを人間知能の「人工的形態」と見なすべきではなく、その「産物」と見なすべきです(70)。
四 AIの開発と使用を導く倫理の役割
36 こうした考察に基づいて、AIを神の計画の中でどのように理解できるかと問うことができます。これに答えるために、科学技術の活動は中立的な性格のものではなく、人間の創造性の人間的・文化的次元を用いる人間的な取り組みであることを思い起こすことが重要です(71)。
37 人間知性に備わる可能性の成果として考えるとき(72)、科学的探究と技術力は「男と女が協力して見える被造界を完成させるという仕事」(73)の一部です。同時に、あらゆる科学技術の成果は、究極的には神から与えられるたまものです(74)。それゆえ、人間は神が与えたそのより高次の目的を目指して自らの能力を用いなければなりません(75)。
38 わたしたちは技術が「かつて人間を傷つけたり制限したりするのが常であった、数え切れない害悪を取り除いてくれた」(76)ことを感謝をもって認めることができます。わたしたちはこのことを喜ばなければなりません。にもかかわらず、すべての技術の成果が真の意味での人間的進歩を示すわけではありません(77)。教会はとくにいのちの神聖性と人間の人格の尊厳を脅かすそうした応用に反対します(78)。あらゆる人間の営みと同様、技術開発は人間の人格に奉仕し、「技術の進歩以上の価値がある」、「より大きな正義、より広い兄弟愛、社会関係におけるより人間的な秩序」(79)の追求に役立つよう方向づけられなければなりません。技術開発の倫理的意味への懸念は、教会内だけでなく、多くの科学者、技術者、専門集団の中でも共有されています。これらの人々は、技術開発を責任あるしかたで導くための倫理的考察をますます求めています。
39 こうした問題にこたえるために、人間の人格の尊厳と使命に基づく道徳的責任の重要性を強調することが不可欠です。この指導原則がAIをめぐる諸問題にもあてはまります。このことに関連して、倫理的次元が何にもまして重要性を帯びています。なぜなら、システムを設計し、その使用目的を定めるのは人間だからです(80)。機械と人間のうちで、真の道徳的主体は後者のみです。人間は、決定において自由を行使し、その結果を受け入れる、道徳的責任を帯びた主体だからです(81)。真理と善と関係をもつのは、機械ではなく人間です。人間は道徳的良心によって導かれるからです。道徳的良心は「善を愛して行い、悪を避けるように」(82)人格に呼びかけ、「最高善であるかたに準拠した真理の権威を明らかにします。人間はそのかたに引き付けられ〔……〕ます」(83)。同様に、機械と人間のうちで、人間だけが、十分な自覚をもって良心の声を聞き、それに従い、熟慮をもって識別し、あらゆる状況の中で可能な善を追求します(84)。実際、これらすべてのことが人格による知能の行使に属しています。
40 人間の創造性が生み出すすべてのものと同様に、AIはよい目的のためにも、悪い目的のためにも方向づけることが可能です(85)。人間の尊厳を尊重し、個人と共同体の善を推進するしかたで用いられるなら、AIは人間の使命に積極的に貢献できます。しかし、人間が決断を行うよう招かれたあらゆる分野におけると同様に、悪の影がここにも現れます。人間の自由が間違ったことを選択する可能性を帯びる場合に、この技術の道徳的評価は、それがどのように方向づけられ、使用されるかにかかっています。
41 同時に、目的だけでなく、目的を達成する手段も倫理的に重要です。それに加え、このシステムに埋め込まれた、人間の人格に関する全体的な観点と理解を考察することも重要です。技術の成果は、その開発者・所有者・使用者・管理者の世界観を反映しています(86)。そして、「世界を形づくり、価値観のレベルで良心を巻き込む」(87)力をもっています。社会的レベルにおいて、ある種の技術開発は、人間の人格と社会に関する適切な理解と相いれない関係や権力力学を強制する可能性もあります。
42 それゆえ、AIの目的と所定のアプリケーションで用いられる手段、そしてAIに組み込まれた視点全体を評価しなければなりません。それは、AIが人間の人格を尊重し、共通善を尊重するようにするためです(88)。教皇フランシスコが述べているとおり、「すべての人に本質的に備わる尊厳こそが、新しく生まれた技術を評価するための中心的な基準とならなければなりません。こうした技術は、この尊厳を尊重し、人間生活のすべてのレベルでその表明を増大させるかぎりにおいて、健全なものといえます」(89)。それには社会的・経済的領域も含みます。この意味で、人間知能は中心的な役割を果たします。それは、技術を設計し生み出すことにおいてばかりでなく、人間の人格の本来的な善に沿ったしかたでのその使用を方向づけることにおいでもです(90)。このことを賢明に実行する責任は社会のすべてのレベルに属します。その際、補完性の原理をはじめとした、カトリックの社会教説の原則に導かれなければなりません。
人間の自由と決定を助ける
43 AIがすべての人の尊厳の最高の価値と人間の使命の完全性を常に支え、推進することができるようにすることは、AIの開発者・所有者・操作者・管理者にとっても、利用者にとっても、識別基準として役立ちます。これは、あらゆる使用レベルにおける、すべての技術の応用に有効であり続けます。
44 この指導原理の意味の分析は、道徳的責任の重要性の考察から始めることができます。完全な道徳的因果性は、人工的行為者ではなく、人格的行為者にのみ帰属します。そのため、AIに含まれるプロセスに責任を負っているのは誰か、特に学習、訂正、プログラムの修正ができるのは誰かを特定し定義することが何よりも重要です。ボトムアップ・アプローチと深層ニューラルネットワークはAIが複雑な問題を解決するのを可能にしますが、それらは採用した解決に導いた過程を理解するのを困難にします。このことは説明責任を複雑なものとします。なぜなら、あるAIアプリケーションが望まない結果を生み出した場合、誰に責任があるかを特定するのが困難になるからです。この問題にこたえるために、複雑できわめて自動化した環境における説明責任の過程の性格に注目することが必要です。すなわち、結論が長期的な媒体においてはじめて明らかになるような場合です。そのため、AIを使用する決定を下す究極的な責任は人間の決定者にあること、あらゆる意思決定の段階においてAIを使用するための説明責任が存在することが重要です(91)。
45 責任者を特定することに加えて、AIシステムに与えられた対象を定めることもきわめて重要です。AIシステムは、自律的な教師なし学習メカニズムを用い、場合によって人間が再構築できない道を進むこともあるとはいえ、究極的には人間が指示した目的を追求し、設計者またプログラマーが作った過程によって管理されます。にもかかわらず、このことは問題を示します。なぜなら、AIモデルはますます独立した学習が可能になるので、アプリケーションが人間の目的に役立つように管理し続ける能力が実際には減少しうるからです。このことは、どうすればAIシステムを人間の善益に反することなく、そのためになるように秩序づければよいかという重大な問いを生み出します。
46 AIシステムを倫理的に使用する責任は、このシステムを開発し、製作し、管理し、監督する人々から始まりますが、システムを使用する人々もそれを共有します。教皇フランシスコが述べたとおり、機械は「適切に定義された基準、ないし統計的推測に基づくいくつかの可能性から技術的な選択を行います。しかし、人間は選択を行うだけでなく、自らの心で決断することができます」(92)。課題を達成するためにAIを使用し、その結論に従う人々は、自分たちが委託した権力に対して究極的に責任を負う状況を作り出します。それゆえ、AIが意思決定する人間を補助しうるかぎりにおいて、AIを支配するアルゴリズムは、諸矛盾に対処できるだけの信頼と安全と堅固さをもち、バイアスや予期せぬ副作用を軽減する操作において透明でなければなりません(93)。規制の枠組みは、透明性・プライバシー・説明責任のための適切な予防策によって、あらゆる法人がAIの使用とその結果に説明責任を持ち続けるようにしなければなりません(94)。さらに、AIを使用する人々は、意思決定において過度にAIに依存しないように注意すべきです。これはすでに技術に強く依存する現代社会で増大している傾向です。
47 教会の道徳・社会教説は、人間の営みを保護する形でAIを使用する助けとなります。たとえば、正義に関する考察は、社会の公正な活動を助け、世界の安全を守り、平和を推進するといった問題にこたえます。賢明さをもつことにより、個人と共同体は、人類に益となるようにAIを用い、人間の尊厳を損ない環境を破壊する可能性があるアプリケーションを避ける方法を見分けることができます。このことに関連して、責任概念は、きわめて限定した意味においてだけではなく、「単なる達成した結果を計算する以上に、他者に配慮する責任」(95)という意味で理解されなければなりません。
48 それゆえ、AIは、あらゆる技術と同様に、人類の善への使命への自覚的で責任のある応答の一部となることができます。しかしながら、すでに論じたとおり、AIは、この使命に協力し、人間の人格の尊厳を尊重することができるように、人間知能によって指導されなければなりません。この「優れた尊厳」を認めて、第二バチカン公会議はこう述べます。「社会秩序とその発展は、常に人格の福祉を優先させるべきである」(96)。このことに照らして、教皇フランシスコはいいます。AIの使用には、「共通善の視点に基づく倫理、他者と全被造物との関係において人格の完全な発展を推進できるような、自由、責任、兄弟愛の倫理が伴わなければなりません」(97)。
五 特定の諸問題
49 このような一般的な展望の中で、以下の考察は、これまでの議論がどのように具体的な状況において、教皇フランシスコが提案した「心の知恵」に沿った(98)倫理的方向づけを与える助けとなるかを示します。この議論は、包括的なものではありませんが、どのようにすればAIを、人間の人格の尊厳を支持し、共通善を推進するために使用できるかを考察する対話に役立つために示すものです(99)。
AIと社会
50 教皇フランシスコが述べるとおり、「各人が本性的に備える尊厳と、わたしたちを唯一の人類家族として結びつける兄弟愛が、新技術の開発の基盤であるべきで、その実用化にあたっての評価の厳然たる基準とならなければなりません」(100)。
51 この観点からは、AIは「農業、教育、文化において重要な革新をもたらし、国や民族レベルにおいての生活水準を向上させ、人類の兄弟愛と社会的友愛を広げられるはずです」(101)。AIは、諸機関が貧しい人を見いだし、差別と疎外に対抗する助けともなることができます。この技術のさまざまなプリケーションは、人間の発展と共通善に貢献することが可能です(102)。
52 しかしながら、AIが善を推進するための多くの可能性を有しているとはいえ、それは人間の発展と共通善を妨げるばかりか、それに反対することもありえます。教皇フランシスコはいいます。「現在までに集められたデータは、デジタル技術が現代世界の不平等を増大させていることを示唆しています。それは、物質的な富における差だけでなく(それも重要ですが)、政治的・社会的影響力の行使における差です」(103)。この意味でAIは、疎外と差別を永続させ、新たな形の貧困を生み出し、「情報格差」を広げ、すでにある社会的不平等を悪化させるために使用されることがありえます(104)。
53 さらに、主要なAIアプリケーションに関する権限が少数の強力な企業に集中することが、深刻な倫理的懸念を生んでいます。この問題を悪化させているのが、AIシステムに本質的に備わる性格です。いかなる個人も、計算に用いられる膨大で複雑なデータセットへの完全な監視をすることができないのです。よく定義された説明責任の欠如は、個人や企業の利益のために、あるいは特定の企業に有利となるように世論を誘導するためにAIが操作される危険を生み出します。そのような自らの利害によって動く集団は、「侵略すべく巧妙に計算された支配形式を手にした状態で介入しており、分別や民主的プロセスを操作するからくりを生み出しているということです」(105)。
54 さらに、教皇フランシスコが「技術主義的(テクノクラティック)パラダイム」と呼んだものを推進するためにAIが用いられるおそれがあります。「技術主義的(テクノクラティック)パラダイム」は、世界のあらゆる問題が技術的手段だけで解決可能だと考えます(106)。このパラダイムにおいて、人間の尊厳と兄弟愛は効率の名の下に脇に置かれます。「まるで現実や善や真理が科学技術的で経済的な力そのものから自動的に生み出されるかのように」(107)。しかし、人間の尊厳と共通善を効率のために侵害してはなりません(108)。なぜなら、「人類全体の生活の質を向上させず、逆に格差や争いを悪化させるような技術開発は、真の進歩とはいえません」(109)。むしろ、AIは、「もっと健全で、より人間的で、より社会的で、より全人的な進歩のために役立てる」(110)べきです。
55 この目的を達成するには、自律と責任の関係に関する深い考察が必要です。自律すればするほど、共同生活のあらゆる側面において各人の責任が高まります。キリスト信者にとって、責任の基盤は、人間のあらゆる能力は、個人の自律を含めて、神に由来し、他者への奉仕のために用いられなければならないことの理解に置かれます(111)。それゆえ、AIは、単に技術的・経済的目的を追求するだけでなく、「人類全家族の共通善」すなわち、「集団と個々の成員とが、より豊かに、より容易に自己完成を達成できるような社会生活の諸条件の総体」(112)に奉仕しなければなりません。
AIと人間関係
56 第二バチカン公会議はこう述べます。「人間はその本性の内奥から社会的存在であり、他者とのかかわりなしには生きることも資質を開花させることもできない」(113)。この確信は、社会の中で生きることが人間の人格の本性と使命にとり本質的なものであることを強調します(114)。わたしたちは社会的存在として、相互の交流と真理の追求を含む関係を求めます。この関係の中で人々は、「それぞれが発見した真理ないし発見したと考える真理を説明し合い、真理の探究において相互に助け合う」(115)のです。
57 こうした探究は、人間のコミュニケーションの他の側面とともに、それぞれの固有の歴史・思想・確信・関係によって形づくられた個人の出会いと相互の交流を前提します。人間知能が、さまざまに異なる、多様で、複雑な現実であることも忘れてはなりません。それは個人的であるとともに社会的であり、理性的であるとともに感情的であり、概念的であるとともに象徴的です。教皇フランシスコはこの力学を強調していいます。「わたしたちは、対話、落ち着いた話し合い、あるいは熱い議論を通して、ともに真理を探し求めることができます。それは、個人や民族の長年の経験をじっくりと受け取れるようになる、沈黙や忍耐をも必要とする、根気のいる道です。〔……〕地域的・世界的な兄弟愛の道のりは、自由な心と、実際の出会いへの思いによってのみ、歩むことができるのです」(116)。
58 このような文脈の中で、わたしたちはAIが人間関係に提示する挑戦を考察することができます。他の技術的手段と同様に、AIは人間家族のつながりを促進する可能性をもっています。しかし、AIは現実との真の出会いを妨げ、究極的には、「対人関係についての深くて憂鬱な不満、あるいは有害な孤立を引き起こす可能性」(117)すらあります。真の人間関係は、痛みや訴え、喜びにおいて他者とともにいる豊かさを必要とします(118)。人間知能は個人間で身体性を伴う形で表現され、豊かにされるので、現実と完全にかかわるには他者との真の自発的な出会いが不可欠です。
59 「真の知恵は、現実との出会いを伴います」(119)。そのため、AIの誕生はもう一つの挑戦をもたらします。AIは人間知能が生み出したものを効果的に模倣するので、自分がいつ人間と話しており、いつ機械と話しているのかを知る能力は当然のことではなくなります。生成AIは、通常は人間とかかわっていた、文書、スピーチ、画像、その他の高度な生産物を生み出すことができます。しかし、生成AIが何のためのものかを理解する必要があります。それは道具であって、人格ではないのです(120)。この区別は専門家によって用いられる言語によってしばしばあいまいにされます。それらの言語はAIを擬人化し、人間と機会の境目をぼやかすからです。
60 AIを擬人化することは、子どもの発達にとって特別な問題を生じます。すなわちAIは、人間関係を、トランザクション処理のように――つまり、チャットボットと会話するように――扱う対話パターンを発展させるように促す可能性があるからです。こうした習慣は、教師を、自分たちの知的・道徳的成長を陶冶する指導者としてではなく、単なる情報の自動販売機のように見なすよう若者を誘導しかねません。共感と他者の善への堅固な責任に根ざした真の人間関係は、人間の人格の完全な発展を促すために不可欠でかけがえのないものです。
61 このような文脈で、次のことを明確にするのが重要です。たとえ擬人的な言語が用いられようとも、いかなるAIアプリケーションも真の意味での共感を経験できません。感情は、表情や、プロンプト(質問)への答えの中で生成される言い回しに還元できるものではありません。感情は、人格全体の世界と自分の人生とのかかわり方を反映するもので、その際、中心的な役割を果たすのは身体です。真の共感は、聞く力を要求し、他者のかけがえのない独自性を認め、他者が他者であることを受け入れ、他者の沈黙の背後にある意味さえも感じ取ります(121)。AIが得意な分析的判断の分野と異なり、真の共感は関係の領域に属します。それは、自己と他者の区別を保ちながら、他者の生きた経験を洞察し、捉えることを含みます(122)。AIは感情移入の伴う応答を模倣できますが、真の意味での共感のすぐれて人格的・関係的な性格を複製することはできません(123)。
62 以上のことに照らすなら、なぜAIを誤って人格として示すことを常に避けるべきかは明らかです。欺瞞的な目的でそうすることは、社会的信頼をむしばみかねない、重大な倫理的侵害です。同様に、他の文脈で――たとえば教育や、セクシュアリティの分野を含む人間関係において――欺くためにAIを用いることも、不道徳的と見なされ、注意深い監視を必要とします。それは、危害を避け、透明性を保ち、すべての人の尊厳を守るためです(124)。
63 人々がますます孤立化する世界にあって、一部の人々は深い人間関係や、単なる交流、または感情的な絆を求めてAIに向かいます。しかし、人間が真の意味での関係を体験すべく造られているのに対して、AIはそれを模擬的に行えるにすぎません。とはいえ、他者との関係は、人格が成長し、自らが目指すべき者となるための不可欠な部分です。もしAIが人々の間の真のつながりを促すための助けとして用いられるなら、人格の完全な実現のために積極的に役立つことが可能です。反対に、わたしたちが神や他者との関係を、技術との関係と置き換えるなら、真の関係を生命をもたない像との関係に置き換えるおそれがあります(詩106・20、ロマ1・22-23参照)。わたしたちは、人工的な世界に引きこもるのではなく、とくに貧しい人や苦しむ人と一つになり、悲しむ人を慰め、すべての人と交わりの絆を築くことによって、現実と真剣かつ献身的にかかわるよう招かれています。
AI、経済、労働
64 その学際的な性格のゆえに、AIはますます経済・金融システムと統合されるようになっています。現在では、技術分野だけでなく、エネルギー、金融、メディア、とくにマーケティングと販売、物流、技術革新、法令順守、リスクマネジメントの分野に大きな投資が行われています。同時に、これらの分野へのAIの応用は、あいまいな性格を際立たせています。それは莫大なチャンスの源泉であるとともに、深刻な危険でもあるからです。この分野における第一の現実の危機的局面は、――AIアプリケーションが少数の企業の手に集中することにより――AIを用いる産業ではなく、そうした少数の大企業だけがAIが生み出す価値の恩恵を受ける可能性があることにかかわります。
65 AIが経済・金融分野にもたらす影響の他の広大な側面も、とくに具体的現実とデジタル世界の相互作用に関して、注意深く吟味しなければなりません。このことに関して考察すべき重要な点は、特定の状況において、経済・金融制度の多様な代替可能な形態が共存することです。こうした要素は推奨すべきものです。とくに危機の時代に、発展と安定性を推進することにより、実体経済を支えるうえで利益をもたらしうるからです。しかし、次のことを強調しなければなりません。空間的な絆に縛られないデジタルな現実は、特定の場所や具体的な歴史に根ざした共同体よりも、均質的で非人格的になる傾向があります。共同体は、共通の価値観や希望だけでなく、避けることのできない不一致や相違によって特徴づけられた、共通の歩みを行うからです。こうした多様性は、共同体の経済生活にとって否定できない強みです。経済と金融を全面的にデジタル技術に転換することは、こうした多様性と豊かさを減少させます。その結果、当事者間の自然な対話によって実現された経済問題の多くの解決は、手続きと似通った姿のみが支配する世界の中でもはや実践できなくなります。
66 AIが深い影響を及ぼしているもう一つの分野は、労働界です。他の分野と同じように、AIは長期的な効果を伴いながら、多くの職業に根本的な変化をもたらしています。一方で、AIは、専門知識と生産性を増大させ、新たな仕事を生み出し、労働者がより革新的な課題に集中することを可能にし、創造性と技術革新の新たな地平を開く可能性をもっています。
67 しかしながら、AIは、平凡な仕事を引き受けることによって生産性を向上させると約束しながらも、機械が労働者を援助するように設計されるのでなく、しばしば、労働者が機械の速度と要求に順応するように強制します。その結果、AIに関して宣伝された利点とは逆に、現在のテクノロジーの使用は、逆説的にも労働者を単純労働者化し、彼らを自動監視の下に服させ、厳しい反復的な作業に降格させるおそれがあります。テクノロジーの速度に追いつく必要があることは、労働者の主体性をそこない、彼らが労働にもたらすと期待されていた革新的能力を抑圧するおそれがあるのです(125)。
68 AIは現在、かつて人間が行っていた一部の仕事の必要性を排除しつつあります。AIが人間の労働者を補うのでなく、彼らに取って代わるために用いられるなら、「多数の人の貧困化を代償にして少数の人が過多な利益を手にする、格差のおそれがあります」(126)。これに加えて、もしAIがより強力になるなら、それに伴い、人間の労働が経済分野で価値を失うおそれがあります。人類の世界は効率の奴隷となり、究極的に、人類の費用が切り詰められなければならない――これが、技術主義的(テクノクラティック)パラダイムの論理的な帰結です。しかし、人間の生命は本質的に価値があり、経済的生産から独立したものです。にもかかわらず、教皇フランシスコがいうとおり、「現代の『成功』と『自立』のモデルにおいては、取り残された人、弱い人、生活手段をほぼ絶たれている人への出資は、理にかなわないこととされているようです」(127)。このことに照らして、「人工知能がそうしたパラダイムを強制するようなしかたで、手段を強力で不可欠なものと認めてはなりません。むしろ、人工知能をその拡張の防壁としなければなりません」(128)。
69 次のことを思い起こすことは重要です。「物事の秩序は人格の秩序に従属すべきであって、その反対であってはならない」(129)。人間の労働は利潤に奉仕するだけのものであってはなりません。むしろ、「その物質的必要と知的・道徳的・霊的・宗教的生活の要請を
考慮したうえでの人間全体に対する奉仕」(130)でなければなりません。このことに関連して、教会は次のことを認めます。就労は「食べていく手段であるだけでなく」、「社会生活に欠かせない側面」であり、「個人の成長、健全な関係の構築、自己の表現、恵みの分かち合い、よりよい世界を築く共同責任の自覚、そしてつまるところ、民として生きるための手段でもある」(131)のです。
70 働くことは「地上における生の意味の一部であり、成長や人間的発達や人格的完成への小路です」。「テクノロジーの進歩によって人間の働きがますます不必要になれば、それは人類にとって不利益となるでしょう」(132)。むしろ、テクノロジーの進歩は人間の労働を推進しなければなりません。このことに照らして、AIは人間の判断を補助すべきであり、それに取って代わってはなりません。同様に、AIが創造性をおとしめたり、労働者を単なる「機械の歯車」にしてはなりません。それゆえ、「労働者の尊厳の尊重、個人・家庭・社会の経済的安定のための雇用の重視、雇用の安定、公正な賃金、これらはこうした各種テクノロジーの職場への導入が深く浸透する中にあって、国際社会の最優先事項とすべきです」(133)。
AIと健康管理業務
71 神のいやしの業に参与する者として、健康管理業務に従事する人々は「人間のいのちを保護しそれに仕える者」(134)となる使命と責任をもちます。そのため健康管理の職業は、ヒポクラテスの誓いによって認められた、それに「本来的に伴う否定しがたい倫理的な側面」を担います。この側面は、医師や健康管理業務に従事する人々が「人間のいのちとその神聖さに絶対的な敬意を表すこと」(135)に努めるように義務づけます。よいサマリア人の模範に倣って、このような努力は、「益が共有されるよう〔……〕排除する社会を作らず、かえって隣人となって倒れた人を起き上がらせて社会に復帰させる人々」(136)によって行われます。
72 このことに照らして、AIは医療分野のさまざまな応用において大きな可能性をもっていると思われます。健康管理業務提供者の診断業務の補助、患者と医療スタッフの関係の促進、新たな治療の提供、孤立ないし疎外されている人々にも良質の介護を広げることなどです。このようにしてテクノロジーは、健康管理業務提供者が病者と苦しむ人に差し伸べるよう招かれている「いつくしみと優しさに満ちた寄り添い」(137)を増大させることができます。
73 しかし、AIが患者と健康管理業務提供者の関係を増大させるのでなく、それに取って代わるために用いられるなら――患者が、人間ではなく、機械とかかわるようにすることによって――、何よりも重要な人間的関係構造を、集権的、非人格的、不平等な枠組みにおとしめることになります。こうしたAIの応用は、病者と苦しむ人との連帯を助長するのではなく、しばしば病気に伴う孤独を悪化させるおそれがあります。とくに「人格が、気遣われ、尊重されるべき最高の価値としてもはや見なされなくなった」(138)文化状況において、このことはなおさらいえます。このようなAIの濫用は、人間の人格の尊厳の尊重と苦しむ人との連帯とは相いれません。
74 患者の幸福の尊重と、患者の生命をいたわる決定は、健康管理業務の中心です。この説明責任は、医療従事者が、自らの治療にゆだねられた人々に関して理にかなった倫理的に根拠のある決定を行うことによって、自らの技術と知能を行使することを要求します。その際、患者の不可侵の尊厳とインフォームドコンセントの必要性を常に尊重しなければなりません。その結果、患者の治療に関する決定とそれに伴う責任の重みは、常に人間の人格とともにとどまり、決してAIに代行させてはなりません(139)。
75 これに加えて、誰が治療を受けるべきかをおもに経済的基準ないし効率の計算に基づいてAIが決定することは、「技術主義(テクノクラティック)パラダイム」のとくに問題のある避けるべき事例です(140)。なぜなら、「資源を最大限活用することは、倫理的かつ友愛的なしかたでそれらを使用することを意味するのであって、もっとも脆弱な人を罰することではない」(141)からです。さらに、健康管理業務におけるAI手段は「さまざまな偏見や差別を露呈しがちです。システムエラーはたちまち増殖し、個々の事案に不正義を来すだけでなく、ドミノ効果によって、社会的不平等の現実形態を生み出しうるのです」(142)。
76 AIを健康管理業務に組み込むことは、医療の享受における他の現存する格差を拡大するおそれもあります。健康管理業務はますます予防と生活習慣を基盤とした手法へと方向づけられるようになっているため、AIによって動かされた解決法は、すでに医療資源と良質の食事を享受している富裕な人々を意図せずに厚遇する可能性があります。この傾向は「金持ちのための医療」を強化するおそれがあります。そこでは、財政的手段をもつ人が発達した予防手段と個人向けの健康情報の恩恵を受け、他のそうでない人々は基本的なサービスを受けることにも苦労するのです。こうした不公平を防ぐために、健康管理業務におけるAIの使用が、現在の健康管理業務の不平等を悪化させず、むしろ共通善に仕えることを可能にするような、公平な枠組みが必要です。
AIと教育
77 第二バチカン公会議のことばは現代においても完全に通用します。「真の教育は、人間の究極目的の達成に向けて、また人間がその成員の一人として所属する〔……〕社会が目指す善の実現に向けて、人格を形成していく」(143)。そのようなものとして、教育は「単なる事実や知的技術の伝達過程であってはなりません。むしろその目的は、(知的・文化的・霊的などの)さまざまな側面において人格の全体的な養成に寄与することです。それはたとえば、共同体生活や、学術団体との関係を含みます」(144)。その際、人間の人格の本性と尊厳を尊重しなければなりません。
78 このような方法は精神の陶冶への取り組みを含みます。しかし、これは人格の統合的な発展の一部として行われます。「わたしたちは、教育とは人の頭を思想で満たすことだと考えるような教育観を打ち砕かなければなりません。それは人間ではなく、ロボットや大頭を教育する方法です。教育とは、頭と心と手の緊張の中で危険を冒すことです」(145)。
79 人間の人格全体を養成する働きの中心にあるのは、教師と生徒の間の関係が不可欠であるということです。教師は知識を伝える以上のことを行います。彼らは人間の本質的な資質の模範を示し、発見の喜びを吹き込みます(146)。教師の存在は、彼らが教える内容と、生徒に示す気遣いの両方を通じて、生徒を動機づけます。この絆が、信頼と理解と、各人の独自の尊厳と可能性に語りかける力を育てます。生徒の側では、これが成長したいという真の望みを生み出します。教師の物理的な存在は、AIが代替不可能な生き生きとした関係を造り出します。このような関係が、取り組みを深め、生徒の総合的な発達を促すのです。
80 このことに関連して、AIは機会と挑戦を示します。教師と生徒の間に存在する関係という文脈の中で賢明なしかたで用いられ、教育の真正な目的へと秩序づけられるなら、AIは価値ある教育資源となりえます。教育の機会を増大させ、行き届いた支援を提供し、生徒に即座の反応を示すことによってです。こうした利点は、個別の注意が必要だったり、教育資源が乏しい場合に、とくに学習経験を増大させることが可能です。
81 にもかかわらず、教育の本質的な部分は、「すべての事柄において推論し、真理に手を伸ばし、それをつかめるように知性を」(147)形づくることです。その際、「頭の言語」が「心の言語」と「手の言語」と調和的に成長するのを助けなければなりません(148)。このことはテクノロジーによって特徴づけられる時代にあっていっそう重大です。そこでは、「もはや、単にコミュニケーションツールを『利用する』ことにはとどまらず、広範にインターネット化された文化を生きるというところにまで来ています。この文化が大きく影響しているのが〔……〕コミュニケーションの方法、学習法、情報収集手段、他者との関係の取り方です」(149)。しかし、「それが引き受けるあらゆる仕事と職業に力と恵みをもたらす」「陶冶された知性」(150)を育てる代わりに、教育におけるAIの広範な使用は、学生のテクノロジーへの依存をますます深める可能性があります。その結果、一部の技術を独立して駆使する能力が衰え、ディスプレーへの依存が悪化します(151)。
82 さらに、一部のAIシステムは、人々が批判的思考能力や問題解決技術を発達させる助けとなるように設計されています。しかし、他のAIシステムは、生徒が自分で答えを見いだし、自分で文章を書くように促す代わりに、単に答えを提供するにとどまります(152)。情報を蓄積し、素早く応答を生み出す方法について若者を訓練する代わりに、教育は、「責任ある自由――岐路に立ったとき、良識と知恵をもった選択をわきまえること」(153)を育成しなければなりません。このことを基盤として、「各種人工知能の活用に関する教育は、批判的思考の養成に重点を置くべきです。インターネット上で収集された、あるいは人工知能システムが生成した、データやコンテンツを利用する際の識別能力はどの年代においても養われなければなりませんが、とりわけ若者にはそれが求められています。学校、大学、学術団体には、学生と研究者がテクノロジーの開発と活用における社会的・倫理的視点を習得できるよう支援することが求められます」(154)。
83 聖ヨハネ・パウロ二世が述べるとおり、「科学と技術がこれほど急速に進歩している現代世界においては、カトリック大学の使命がますますその重要性と緊急性を増しつつある」(155)。とくにカトリック大学は、歴史の十字路にあって偉大な希望の実験場となるべく促されます。学際的な手がかりによって、カトリック大学は「知恵と創造性」(156)をもって、この現象の注意深い研究に取り組むように駆り立てられます。こうしてカトリック大学は、科学と現実のさまざまな領域から救いの可能性を引き出す助けとなり、わたしたちの社会の一致と共通善に明確に奉仕する、倫理的に健全な応用に向けて常に科学を導き、信仰と理性の対話において新しい開拓地に到達しなければなりません。
84 さらに、このことに注意しなければなりません。現在のAIプログラムは、バイアスのかかった、ないし捏造された情報を提供することが知られています。こうした情報は学生を不正確な内容を信じるように導く可能性があります。この問題は「フェイクニュースを正当化したり、支配的文化の優位性を強化するおそれがあるだけでなく、要するに、教育過程そのものも侵食します」(157)。時とともに、教育と研究におけるAIの適切な使用と不適切な使用の明確な区別ができるようになるかもしれません。しかし、決定的な指針は、AIの使用は常に透明な形で行われ、無秩序になされてはならないということです。
AI、誤情報、ディープフェイク、濫用
85 AIは、人々が複雑な概念を理解するのを助け、真理の探求を支える健全な源泉に人々を導くなら、人間の尊厳の助けとして用いられることができます(158)。
86 しかし、AIは操作された内容や偽の情報を生み出す深刻な危険も示します。そうした情報は、真理に似ているために、人々をたやすく欺くことが可能です。こうした誤情報は、AI「ハルシネーション」の場合のように、意図せずに生じることがあります。AI「ハルシネーション」とは、生成AIシステムが、本当のように見えるが、そうではない結果を生み出すことです。人造物をまねた内容を生成することはAIの機能の中心なので、こうした危険を軽減するのは困難です。しかし、こうした逸脱と誤情報の帰結はきわめて重大です。そのため、AIシステムの生産と使用にかかわる人は、システムが処理し、公に広める情報の真実性と正確性に責任を負わなければなりません。
87 AIは偽情報を生成する潜在的な可能性をもっています。しかし、もっと厄介な問題は、操作のためにAIを意図的に濫用することにあります。これは、個人や団体が、だましたり傷つけたりすることを目的として、偽のコンテンツを意図的に生成し広めるときに起こります。たとえば、「ディープフェイク」画像、動画、音声です。「ディープフェイク」とは、AIアルゴリズムによって編集・生成された、ある人物の偽の表現のことです。ディープフェイクの危険は、他者を標的にしたり傷つけたりするために用いられる場合にとくに明らかです。画像や動画自体は人工的なものですが、それが与える損害は現実のものです。それは「被害者の心に深い傷を残」し、その「人間的尊厳が傷つけられ」(159)ます。
88 より広い規模で、「他者や事実との関係」(160)を歪めることにより、AIが生成したフェイクメディアは、社会の基盤を徐々にむしばみます。この問題は注意深い規制を要求します。誤情報、とくにAIが管理ないし影響を与えたメディアは、意図的に広まり、政治的分裂や社会不安をあおることができるからです。社会が真実に無関心になると、さまざまな集団が自らの固有の「事実」の形を構築し、社会生活の構造を支える「相互関係と相互依存」(161)を弱体化します。ディープフェイクは人々にすべてを疑うように仕向け、AIが生成した偽のコンテンツは、人々が見聞きするものへの信頼をむしばみます。そのため分裂と争いが激しくなります。このような虚偽の広まりはささいな事柄ではありません。それは人間性の核心を攻撃し、社会がその上に築かれた根本的な信頼をはぎとるからです(162)。
89 AIが生み出す虚偽に対抗するのは、企業の専門家だけの仕事ではありません。それはすべての善意の人の努力を必要とします。「技術は、暴力ではなく平和を推進しなければなりません。そうであれば、人類社会は人間の尊厳の尊重のために、こうした傾向に立ち向かい、善を推進すべく積極的に行動しなければなりません」(163)。AIが生成するコンテンツを生産し、広める人々は、自分たちが拡散することが真理であるかどうかを常に熱心に検証しなければなりません。そして、あらゆる場合において、「人間性を失墜させ、憎しみと不寛容性を促し、人間の性の善性と親密さを卑しくし、弱く傷つきやすい人々を搾取するようなことばと画像に触れずにすむ」(164)ようにしなければなりません。そのために、自らのオンライン活動に関して全ユーザーの継続的な賢慮と注意深い識別が求められます(165)。
AI、プライバシー、監視
90 人間は本質的に関係的であり、それぞれの人格がデジタル世界で生み出すデータは、この関係的性格の客観的な表現と見なすことができます。データは単に情報を伝達するだけではなく、個人的・関係的な知識をも伝えます。こうした知識は、ますますデジタル化する状況の中で、個人に対して力をもつことができます。さらに、ある種のデータは個人生活の公的側面に属するため、他の人が個人の内面、場合によって良心に触れることがありえます。こうしたことを考えると、プライバシーは、個人の内面生活の境界を守るうえで、また、他者とかかわる自由を保護し、自己を表現し、不当な管理なしに決定を下すうえで、本質的な役割を果たします。このような保護は、信教の自由の保護とも結びついています。監視は、信仰者の生活と信仰表現の方法を管理するために濫用されることもありうるからです。
91 それゆえ、「いかなる状況でも」(166)人間の人格の正当な自由と不可侵の尊厳を配慮しなければならないがゆえに、プライバシーの問題を取り上げることは適切です。第二バチカン公会議は「私生活を守る権利」を「真に人間らしい生活を送るために必要な」基本的権利に含めました。この権利は「優れた尊厳」(167)のゆえにすべての人に拡大しなければならないものです。さらに、教会は、よい評判、身体的・精神的完全性の擁護、危害や不当な侵入からの自由に対する個人の権利について述べる文脈で、私的生活が正当に尊重される権利にも言及します(168)。これは、人間の人格の本質的な尊厳に対する正当な尊重の不可欠の要素です(169)。
92 AIによるデータ処理と分析の進歩は、いまや、わずかな情報からも個人の行動と思考のパターンを推測することを可能にしています。そのためデータプライバシーの役割は、人間の人格の尊厳と関係的性格を守るためにますます必須になっています。教皇フランシスコが述べるとおり、「他者を寄せつけない閉鎖的で不寛容な姿勢が広がる一方で、プライバシーの権利などなくなったかのように、距離が詰まったり、なくなったりしています。すべてが偵察され監視され、ある種のショーとなり、生活は常時監視下に置かれます」(170)。
93 人間の尊厳と共通善を守りながらAIを使用する正当で適切な方法が存在しうる一方で、搾取、他者の自由の制限、あるいは多数の犠牲による少数の利益のために、AIを監視目的で使用することは正当化できません。透明性と公的説明責任を確保するために、行き過ぎた監視の危険を適切な規制者が監督しなければなりません。監視責任者は決して権限を越えてはなりません。監視の権限は、公正で人間的な社会の本質的な基盤であるすべての人格の尊厳と自由を常に尊重すべきです。
94 さらに、「人間の尊厳を根本から守るには、その人の唯一無二性が一連のデータに置き換えられることを否定しなければなりません」(171)。このことは、AIが個人や集団をその行動・性格・歴史に基づいて評価する場合にとくにあてはまります。それが「ソーシャルスコアリング」として知られる実践です。「社会的・経済的意思決定において、わたしたちはアルゴリズムに判断を代行させてはなりません。アルゴリズムは、しばしば秘密に集められた、個人の外見やそれまでの行動に関するデータを処理します。こうしたデータは、社会的偏見や先入観の汚染を受けている可能性があります。個人の過去の行動を、その人が変化し、成長し、社会に貢献する機会を否定するために用いてはなりません。人間の尊厳の尊重を限定ないし条件づけたり、共感、憐れみ、ゆるし、そして何よりも人々が変化できる希望を排除することをアルゴリズムに許してはなりません」(172)。
AIと、わたしたちがともに暮らす家の保護
95 AIは、わたしたちとわたしたちが「ともに暮らす家」との関係を改善するための、多くの有望なアプリケーションをもっています。極端な気候現象を予報するためのモデルを生み出す、気候現象の影響を軽減するための工学的解決法を提案する、救援活動を管理する、人口の変化を予測するなどです(173)。さらにAIは、持続可能な農業を支援し、エネルギー使用量を最適化し、公衆衛生上の緊急事態の早期警報システムを提供することができます。こうした進歩は、気候変動がもたらす問題への回復力を強化し、より持続可能な発展を推進するための潜在力をもっています。
96 同時に、現在のAIモデルとハードウェアを維持するには、膨大な量のエネルギーと水の消費を必要とするため、二酸化炭素排出と資源の圧迫を著しく引き起こします。この現実はAI技術が大衆のイメージに対して示されるしかたによってしばしば見えなくされています。すなわち、「クラウド」(174)ということばは、データが物理的世界と切り離された、実体のない領域に貯蔵され、処理されるという印象を与える可能性があります。しかし、「クラウド」は、物理的な世界と分離した天上の領域ではありません。すべてのコンピュータ技術と同様、それは物理的な機械、ケーブル、エネルギーに依存します。同じことはAIの背後にある技術にもいえます。こうしたシステム、とくに大規模言語モデル(Large language models: LLMs)は複雑に成長しているため、いっそう大きなデータセット、増大した計算能力、より大きなストレージインフラストラクチャを必要とします。これらの技術が環境に与える大きな負荷を考えるなら、この技術がわたしたちがともに暮らす家に与える影響を軽減するための持続可能な解決策を生み出すことがきわめて重要です。
97 その際、教皇フランシスコが教えているとおり、「技術による解決だけでなく、人間性の転換による解決を探すこと」(175)が不可欠です。 被造界を完全かつ真に理解するなら、被造物は単なる実用性に還元できないことがわかります。それゆえ、大地の管理の完全に人間的な方法は、技術主義的(テクノクラティック)パラダイムの歪んだ人間中心主義を拒絶します。この人間中心主義は、「可能なものすべてをそこから絞り出そうと」(176)試みるからです。そして、「進歩神話」を拒絶します。この「進歩神話」は、「倫理的な配慮も根本的な変革もなしに〔……〕環境問題は新たな技術的応用によって単純に解決される」(177)と断言するからです。このようなものの考え方は、より全人的な方法に取って代わらなければなりません。この方法は、わたしたちがともに暮らす家を守りつつ、被造界の秩序を尊重し、人間の人格の総合的な善を推進するからです(178)。
AIと戦争
98 第二バチカン公会議と、それ以降の教皇の一貫した教えは、こう主張します。平和は、単に戦争がないことでもなければ、敵どうしの力の均衡を維持することに限定されるものでもありません。むしろ、聖アウグスティヌスのことばを用いるなら、平和は「秩序ある静けさ」(179)です。実際、平和は、人格の善の擁護、自由なコミュニケーション、個人と民の尊厳の尊重、兄弟愛の熱心な実践がなければ、達成できません。平和は正義のわざ、愛の結果であって、武力だけでこれを勝ち取ることはできません。むしろ、第一に平和を築くのは、忍耐強い外交、正義の活発な推進、連帯、全人的な人間開発、すべての人の尊厳の尊重です(180)。ですから、平和を維持するために用いられる手段が、不正と暴力と抑圧を正当化することが許されてはなりません。むしろ、「他人および他国民と、また彼らの尊厳を尊
重する確固たる意志および兄弟愛の積極的な実践」(181)がこれらの手段を常に支配しなければなりません。
99 AIの分析能力は、諸国家が平和を追求し安全を保障するための助けとなりえます。しかし、「人工知能の軍事利用」もきわめて問題となりえます。教皇フランシスコはいいます。「遠隔操作システムによる軍事作戦が可能になったことで、それらが引き起こす破壊やその使用責任に対する意識が薄れ、戦争という重い悲劇に対し、冷淡で人ごとのような姿勢が生じています」(182)。さらに、自律型兵器は、最後の正当防衛の手段という戦争の原則(183)に対して、戦争を容易に実行可能なものとします。そして、戦争手段を人間の監視を超えて増大させ、不安定な軍拡競争を加速化し、人権にとって破滅的な帰結をもたらしかねません(184)。
100 とくに、人間の直接の介入なしに標的を特定し、攻撃することが可能な、自律型致死兵器システムは「重大な倫理的懸念となっています」。なぜなら、それは「人間だけが有する道徳的判断力や倫理的意思決定能力」(185)を欠くからです。そのため、教皇フランシスコはこうした兵器の開発の再考と、使用禁止を強く訴えてきました。それは「いっそう大きく適切な人間の管理を導入するために実効的かつ具体的な取り組みを行うこと」(186)から始めなければなりません。
101 正確性をもって自律的に人を殺す機械から、大規模破壊が可能な機械への移行はわずかな一歩にすぎません。そのため、一部のAI研究者は、そのような技術が「実存的な危険」を示しうることに懸念を表明しています。なぜなら、そうした技術は、地域全体または人類そのものの生存を脅かしうるようなしかたで行動する可能性があるからです。この危険は深刻な注意を要求します。この注意は、新技術により「制御不能な破壊的軍事力が戦争に付与され、多くの罪のない民間人が被害に遭っている」(187)ことへの長年にわたる懸念を反映するものです。子どもも例外ではありません。このことに関連して、「まったく新しい発想のもとに戦争問題を吟味するよう」(188)にという『現代世界憲章』の呼びかけは、これまでにまして緊急性を帯びています。
102 AIの理論的な危険は注目に値します。しかし、同時に、より身近で切迫した懸念は、個人がこの技術を悪意をもって濫用することにあります(189)。あらゆる道具と同じように、AIは人間の力の延長です。そしてその未来の可能性は予測できないので、人類の過去の行動が明らかな警告となります。歴史を通じて行われたさまざまな残虐行為は、AIの濫用の可能性に対して深い懸念を抱かせるのに十分です。
103 聖ヨハネ・パウロ二世はこう述べています。「人類はいまやかつてないほどの力の手段を手にしています。わたしたちはこの世界を楽園に変えることもできれば、瓦礫の山にすることもできるのです」(190)。そのため、教会は教皇フランシスコの次のことばをわたしたちに思い起こさせます。「わたしたちには、物事をよい方向へと発展させることにも」、あるいは「退廃と相互破滅へと導」くことにも、知能を用いる自由があります(191)。人類を自己破壊への悪循環に陥らせないために(192)、人間の生活と尊厳を本質的に脅かすようなあらゆる技術の適用にはっきりと反対しなければなりません。この取り組みは、AI使用、とくに軍事防衛アプリケーションに関する注意深い識別を要求します。それが常に人間の尊厳を尊重し、共通善に奉仕することができるようにするためです。軍事兵器におけるAIの開発と配備は、人間の尊厳と生命の神聖性への配慮によって導かれた、高次の倫理的精査にゆだねられなければなりません(193)。
AIと、人類の神との関係
104 技術は、世界の資源の監督と発展のためのすばらしい手段を提供します。しかし、ある場合に、人類はこれらの資源の管理をますます機械にゆだねています。科学者や未来学者の一部の人々には、汎用人工知能(artificial general intelligence: AGI)の可能性についての楽観論がみられます。汎用人工知能とは、人間知能に匹敵するか、それを凌駕し、想像できないような進歩をもたらすような、AIの仮説的な形態です。一部の人は、汎用人工知能が超人的な能力に達しうると考えます。同時に、社会が超越とのつながりから遠ざかるにつれて、一部の人は意味と充足を求めてAIに向かう誘惑に駆られます。しかし、このようなあこがれは、神との交わりにおいて初めて真の意味で満たされるものです(194)。
105 しかし、神を人間が作った人工物に置き換えようとすることは、偶像崇拝です。聖書はこのような行いにはっきりと警告します(たとえば、出20・4、32・1-5、34・17)。さらに、AIは伝統的な偶像よりもいっそう魅惑的です。なぜなら、「口があっても話せず、目があっても見えない。耳があっても聞こえず、鼻があってもかぐことができない」(詩115・5-6)偶像と異なり、AIは「話す」ことができ、少なくとも、「話す」ことができるという幻想を与えるからです(黙13・15参照)。しかし、次のことを思い起こすことはきわめて重要です。AIは人類のぼんやりとした映しにすぎません。AIは人間精神によって作られ、人間が生み出した材料で訓練され、人間の入力に反応し、人間の労働によって維持されます。AIは人間生命に特有の能力の多くをもちませんし、誤ることがありえます。存在と責任を共有しうる、自己よりも偉大な「他なるかた」と見なしてAIに向かうなら、人類は神の代替物を作り出す危険を冒します。しかし、究極的に神として祭られ、礼拝されるのは、AIではなく、人類自身です。こうして人類は、自己のわざの奴隷となるのです(195)。
106 AIは人類に奉仕し、共通善に寄与する可能性をもっていますが、人の手が造り出したものにとどまります。それは「人間の技や考えで造った……像」(使17・29)です。AIを不当に評価してはなりません。知恵の書が述べるとおりです。「偶像を造ったのは人間、、霊を貸し与えられている人間がそれを造った。人は、自分に等しい神をさえ造れないのだ。死すべき人間が、その不法の手で造り出す偶像には、命がない。拝まれる偶像より、人間の方が価値がある。人間には命があるが、偶像にはないからだ」(知15・16-17)。
107 反対に、「人間はその内面性によって事物の世界を超越している。人間がこの深い内面性に戻るのは、心に目を向けるときである。心を探る神はそこで人間を待ち、人間は神のまなざしのもとで自らの行方を定める」(196)。教皇フランシスコが述べるとおり、個々人は心の中で「自己認識と他者への開放性、人格の独自性と自己を進んで他者に与える意欲の間の神秘的なつながり」(197)を見いだします。それゆえ、心だけが「わたしたちの他の力、情熱、全人格を、主の前での畏敬と愛の伴う従順の態度に変えることができます」(198)。主は「わたしたち一人ひとりを永遠に『汝』として扱ってくださいます」(199)。
六 結びの考察
108 教皇フランシスコは、技術の進歩がもたらしたさまざまな問題を考察しながら、「人間の責任感や価値観や良心の成長」(200)の必要性を強調します。「人間が力を増せば増すほど、個人としてまた共同体としてその責任は大きくなる」(201)ことを認めるからです。
109 同時に、「本質的な問題」は残っています。すなわち、「このような進歩の枠の中で、人間は人間として、よりよいもの、つまり精神的にもより成熟したもの、自分の人間性の尊厳をいっそう意識するもの、他人、とくに最も貧しい者や弱い者にいっそう開かれた者、すべてのものを助けるためにいっそうよく用意している者に実際になれるかという疑問です」(202)。
110 その結果、とくに、その使用が、人間の尊厳、人間の人格の使命、そして共通善を推進するかどうかという文脈において、AIの個別的な適用をどう評価するかを知ることがきわめて重要です。多くの技術と同じように、AIのさまざまな使用がもたらす効果は、常に初めから予測できるものではありません。AIの適用と社会的影響がはっきりすればするほど、補完性の原理に従いながら社会のあらゆる次元で適切な応答を行うことが必要となります。個人ユーザー、家庭、市民社会、企業、研究所、政府、国際機関は、AIがすべての人の善のために用いられるように、それぞれに固有の次元で努めなければなりません。
111 今日、共通善にとっての重要な挑戦また機会は、リレーショナルインテリジェンスの枠組みの中でAIを考察することにあります。リレーショナルインテリジェンスは、個人と共同体の相互のつながりを強調し、他者の総合的な幸福を推進する共同責任を重視します。二十世紀の哲学者ニコライ・ベルジャーエフは、人々が個人的・社会的問題のゆえに機械を非難すると述べています。しかし、「これは人間をおとしめるだけで、その尊厳に対応するものではない」。なぜなら、「人間から機械に責任を転嫁するのはふさわしいことでない」(203)からです。人間の人格だけが道徳的責任をとることができます。そして、技術社会の問題は、究極的には精神的性格を有します。それゆえ、こうした問題に直面することは、「霊性を深めることを要請する」(204)。
112 さらに考察すべき点は、AIが世界の舞台に登場したことから生まれた、あらゆる人間的なものの新たな評価への呼びかけです。数十年前、フランスのカトリック思想家、ジョルジュ・ベルナノスは、こう警告しました。「危険なのは、機械が増えることではなく、ますます多くの人が、子どものときから、機械が与えうるものだけを望むのに慣れてきたことである」(205)。この問題は当時と同じように今日にもいえます。急速なデジタル化は、「デジタルな還元主義」の危険を帯びています。そこでは、生活の計量化できない側面は脇に置かれ、その後忘れられ、不適切だとさえ見なされるようになります。なぜなら、それらは正式な条件で計算できないからです。AIは人間知能の豊かさに取って代わるためではなく、人間知能を補完するための道具として用いられなければなりません(206)。計算を超える人間生活のそうした側面を培うことは、「閉じた扉の下からそっと入り込む霧のようにほとんど気づかれないながらも〔……〕テクノロジー文化のただ中に住まっている」、「真正な人間性」(207)を保つためにきわめて重要です。
真の知恵
113 今や、旧世代の人々を驚きで満たすほどに、世界の知識の広大な広がりがアクセス可能になっています。しかし、知識における進歩が人間的ないし精神的に不毛なものとならないために、単なるデータの集積を超えて、真の知恵の獲得に努めなければなりません(208)。
114 このような知恵は、深い問いや、AIによってもたらされた倫理的問題に答えるために、人類がもっとも必要としているたまものです。「心の目で見ることでのみ、心の知恵を取り戻すことでのみ、わたしたちは時代の新しさを読み解き、真に人間らしいコミュニケーションの道を見いだすことができます」(209)。「心の知恵とは、全体と部分とを、決断とその結果とを〔……〕一つに編み上げられるようにする徳なのです」。「機械には、こうした知恵は期待できません」。「この心の知恵は、それを求める人には見いだされ、それを愛する人には姿を現します。それを望んでいる人には先んじて与えられているもので、それにふさわしい人を求めて巡り歩いています(知6・12-16参照)」(210)。
115 AIによって特徴づけられる世界にあって、わたしたちは聖霊のたまものを必要としています。それは「わたしたちが神の目で物事を見られるようにし、関係性、状況、出来事を理解できるように、そしてその意味に気づけるようにします」(211)。
116 「人間の完成度を量るのはその人のもつ愛徳の程度であり、蓄えた情報や知識の量ではありません」(212)。ですから、「最後に回される人たち、つまりもっとも弱く助けを必要としている兄弟姉妹との共生のためにいかに人工知能を活用するのかが、わたしたちの人間性を明るみに出す尺度となるのです」(213)。「心の知恵」は、このAIという技術の人間中心の使用を照らし、導くことができます。それは、共通善と「ともに暮らす家」のケアを推進し、真理の探求を発展させ、全人的な人間の発展を促し、人間の連帯と友愛を深め、幸福と神との完全な交わりという究極目標へと人類を導くための助けとなるためです(214)。
117 この知恵という観点から、信仰者は、AIという技術を用いて人間の人格と社会の真のビジョンを推進できる、道徳的行為者として行動することが可能になります(215)。このことは次の理解をもって行われなければなりません。すなわち、技術の進歩は、神の創造についてのご計画の一部です。このわざは、真理であり善である方を探し求め続けながら、イエス・キリストの過越の神秘へと被造物を秩序づけるようにとわたしたちを招いているのです。
教皇フランシスコは、2025年1月14日の教理省および文化教育省長官・次官との謁見において、この覚書を認可し、その公表を命じました。
ローマ、教皇庁教理省および文化教育省事務局にて、2025年1月28日、教会博士聖トマス・アクィナスの記念日に。
長官 マヌエル・フェルナンデス枢機卿
教理部門次官 アルマンド・マッテオ
教皇庁文化教育省
長官 トレンティーノ・デ・メンドンサ
文化部門次官 パウル・ティゲ
2025年1月14日の謁見により
教皇フランシスコ