国際会議「AI と医療。 人間の尊厳の課題」声明書 Statement for the International Congress “AI and Medicine. The Challenge of Human Dignity”

国際会議「AI と医療。人間の尊厳の課題」声明書 Statement for the International Congress “AI and Medicine. The Challenge of Human Dig […]

国際会議「AI と医療。人間の尊厳の課題」声明書

Statement for the International Congress
“AI and Medicine. The Challenge of Human Dignity”

(ローマ、2025 年 11 月 11 日)

 近年における AI システムの著しい発展は、それが成し遂げた成果と、それが直面している多くの問題への懸念の双方を生じさせている。これらのテクノロジーによって私たちが構築したい未来への重大な問いも押し寄せている。
 AI について倫理的に熟考するためには、他のテクノロジーの場合と同様に、それがいかに目覚ましいものであっても、それがなしうるパフォーマンス(性能)の考察のみに限定されないことが大切である。AI が人格的および社会的関係性に与えるインパクトの考察もその査定(assessment)に含まれなければならない。教皇フランシスコが述べたように、テクノロジーは「つねに社会関係における秩序の形態と、力の配列とを表現する。というのは、テクノロジーは、ある人々が特定のアクションを実行することを可能にする一方で、他の人々が別のアクションを実行することを妨げるからである。多かれ少なかれ明白な仕方で、テクノロジーのこの構造的な力の次元は、それを発明し、また発展させた人の世界観をつねに包含している」*1
 この理由から、教皇フランシスコは私たちに次のことを想起させている。「新しいテクノロジーが使用される前に、各々の人間存在に生来的にそなわっている尊厳と、私たちを一つの人類家族のメンバーとして結びつける同胞愛が、その開発の下部を強固に下支えし、それを評価するための争いの余地のない基準(criteria)でなければならない」*2。新しいデジタル・テクノロジーにおいて問題になっているのは、諸々の原則や権利だけではない。人間の精神(mind)の特殊性と独創性(originality)も問題になっている。それは、特異で先例のない媒体(agency:作因、発動者、取り次ぎ)の形態を授けられたデバイス(devices:出力機器、考案物、被造物)〔神の似姿としての作用〕の文脈において保護されなければならない。

 それゆえ、ヘルスケアの領域においては、AI は臨床上の判断を増強し、診断の正確さを支え、忍耐強い成果を改善する助力者(aid)であって、決して医師の専門技術(熟練のわざ)、共感、あるいは説明責任の代理人ではないことが、決定的に重要(crucial)である。

 医療実践における AI のための鍵となる倫理原則は、以下を含む:

臨床的監視と判断(Clinical Oversight and Judgment)
 AI は医師の臨床的推論の従属にとどまらなければならない。それは〔型にはまった〕パターン認識によって、リスクを層別化〔成層〕し、決定支援を補佐できるが、患者の処置に関する決定と、それが必然的に伴う責任の重さは、最終的にはつねに人格に帰されなければならず、決して AI に委ねられるべきではない*3。AI を使用する過程で、医師はテクノロジカルな成果に魅了されて催眠状態に陥らないよう注意深くなければならない。その魅惑は、十分な批判的精神なしに、機械に過剰な力を分配し代行させるよう導くからである。人間による有意義で適切な AI の指揮監督は、技術の無批判な使用を妨げる意味もある。AI が推奨することは、つねに外部から疑われなければならない!

透明性と翻訳処理(Transparency and Interpretability)
 医師は、AI が引き出した推奨がいかにして生み出されたかを理解し説明できるべきである。翻訳可能性を欠くブラック・ボックスのアルゴリズムは、単純作業化と責任の代行〔AIへの委任〕を誘導することによって、信頼と臨床上の説明責任の根元(土台)を削り取るリスクがある。

バイアスの警戒と衡平(Bias Awareness and Equity)
 不完全なあるいはバイアスのかかったデータセット(datasets)上に調整された AI システムは、他の生活局面と同様、ケアにおいても格差(disparities)を永続させうる。臨床医はこれらのリスクを認識することにおいて警戒を怠らないようにし、AI 開発においては包括的、代表的データが用いられることを擁護しなければならない。

データ・プライバシーと患者の同意(Data Privacy and Patient Consent)
 AI 応用における患者データの使用は、法的および倫理的標準に従わなければならない。患者は自らのデータが使用可能な状態におかれることが、共通善への、そして医療の知識と実践の改善への参加形態でありうることを承知しているべきだが、これは当然、自由な責任の表明(expression of free responsibility)であるべきである。情報の秘密性と管理についての医療専門職の倫理的側面は、AI の文脈にも移行されなければならない。

責任と法的責任(Responsibility and Liability)
 エラー(誤謬)は、プログラミング、監視、臨床医のアクションまたはアルゴリズムの失敗の現れである。それゆえ、以下の区別が重要である。システムの不適切な使用を医師に遡及できるケースなのか、あるいは、もっぱら道具を管理し設置する病院、または AI企業のみに責任が帰せられるケースなのか。医師は生成 AI を心理的アドバイザーとして使用する危険を彼/彼女の患者に警告し、彼/彼女が「数値(計算能力)のバブル」に監禁される罠から脱出することを助ける責任もある。

アクセスと公正(Access and Fairness)
 AI は資源豊富なグループと資源の乏しいグループ間の格差を拡大するべきではない。その開発は衡平でなければならない。すべての患者が――地政学的あるいは社会経済的地位に関わらず――テクノロジカルな前進から利益を得ることを保障する必要がある。「資源を最適化することは、それらを倫理的かつ同胞愛的な仕方で使用することを意味し、最も脆弱な人々にペナルティを科さないことを意味する」*4
 患者のケアの執事(stewards)として、医師は、AI がどのように適用されるべきかを形成する批判的役割を有する。倫理的厳格性と患者中心のデザインを主張することによって、私たちは AI が医療実践の統合性を強めること――傷つける(compromises)のではなく――を保障することができる。私たちは同時に、この領域で働く他の参与者と協力する必要があることを承知している。デジタル・テクノロジーの調査研究と管理において問題になっている力と関心は、すべての主要な利害関係者間で連携する。これが「目的に応じた倫理(Ethics by design)」というものである*5

 コンピューター操作・処理(computation)に基づく数値・計算能力(numerical)技術は、効果的なものでありうるが、多くの認識論的かつ論理的な限界を持つ。それゆえ、コンピューター処理を、人間の思考のあらゆる側面(facets:切子面)と人間関係のあらゆる次元と取り替えることはできない。患者のケアの深い次元は、最適化する数値・計算能力手続きや自律型ロボットと取り替えることはできない。それは感情移入の仕草、優しさに満ちた眼差し、そして有効性や利潤率(収益性)について何ら考慮せずに時間を費やすことを含意する。AI は医療が単なる科学や技術のようなものではなく、たとえどのテクノロジーも役立たないときでも、彼/彼女の苦しみにおいて患者をサポートする人間的な道(人道)であることを忘却するよう導くことはできない。医療における AI の成功の最大のリスクが、医療は治癒のための単なる技術にすぎず深い人間的なケアの関係ではないことを累進的に示唆する狡猾な潜行性の道であることが、十分にありうる*6。患者は(AI あるいは他のテクノロジーによって)解決されるべき「問題」ではない。彼/彼女はキリスト自身を啓示する「神秘」である。

レンツォ・ペゴラロ(Renzo Pegoraro) ベルナルド・アース(Bernard Ars)
〔教皇庁生命アカデミー会長〕 〔カトリック医師会国際連盟会長〕

〔秋葉 悦子・訳〕

〔 〕は訳者による。

PAGE TOP