医療現場での経験から、真のイノベーションと、一見すると医療行為を根本的に変える微妙な再分類を区別することができます。人工知能(AI)は近年大きな注目を集めており、米国ではAIが「医療行為を法的に認可された」という主張が広く流布されています。しかし、この主張は文字通り解釈すると不正確です。機械に認可を与えた医療委員会はありません。アルゴリズムが宣誓したり、受託者責任を受け入れたり、患者の被害に対する個人的な責任を負ったりした例もありません。ロボット医師がクリニックを開設したり、保険会社に請求したり、医療過誤の陪審員の前に立ったりする例もありません。
しかし、この観察に留まるのは、より広範な問題を見落としていることになります。責任に関する法的概念は現在、しばしば国民の認識なく再定義されています。
重大な変革が進行中であり、反射的な拒絶や無批判なテクノロジーへの熱狂といったもの以上のものが求められています。現在の進展は、人工知能が医師として認可されるというものではなく、医学の核心的な境界、すなわち臨床判断と人間の責任という本質的なつながりが徐々に侵食されつつあることを示しています。臨床判断には、個々の患者固有のニーズと状況に合わせた情報に基づいた意思決定が求められ、共感、直感、そして医療倫理への深い理解が求められます。
ヒューマン・アカウンタビリティとは、医療提供者がこれらの意思決定とその結果に対して負う責任を指します。この低下は、劇的な立法や公的な議論の結果ではなく、パイロットプログラム、規制の再解釈、そして責任を意図的に曖昧にする言葉遣いを通して静かに進行しています。この境界線が一旦消滅すると、医療は元に戻すことが困難な形で変容します。
主な懸念は、AIが処方箋の再発行や異常な検査結果の発見ができるかどうかではありません。医療現場では長年ツールが活用されており、医療従事者は事務作業の軽減やパターン認識の向上といった支援を歓迎する傾向が強いです。真の問題は、医療判断、つまり適切な行動、患者、そしてリスクの判断を、道徳的責任から切り離されたコンピューター生成の結果と見なせるかどうかです。歴史的に見て、判断と説明責任を切り離そうとする試みは、責任を果たさずに害を及ぼすことが多々ありました。
最近の動向は、現在の混乱の原因を明らかにしている。いくつかの州では、限定的なパイロットプログラムにより、AI駆動型システムが、厳密に定義されたプロトコルの下で、安定した慢性疾患の処方箋更新を支援することが認められている。連邦レベルでは、適切な規制の下で、人工知能が特定の法定目的において「開業医」としての資格を有するかどうかが法案で検討されている。これらの取り組みは、医師不足、アクセスの遅延、そして行政の非効率性に対する現実的な対応策として提示されることが多い。AIを医師と明確に規定しているものはないが、全体として、明確に識別可能な人間の意思決定者なしに医療行為が行われる可能性があるという、より懸念される前提を常態化させている。
実際には、この区別は根本的なものです。医療は、タスクを機械的に実行することではなく、結果が望ましくない場合の責任の割り当てによって定義されます。処方箋を書くことは簡単ですが、その結果に対する責任を受け入れること、特に併存疾患、社会的背景、患者の価値観、あるいは不完全な情報を考慮した場合、それははるかに複雑です。私のキャリアを通して、この責任は常に人間が担ってきました。人間は、質問され、異議を唱えられ、訂正され、そして責任を問われることができます。スミス医師がミスを犯した場合、家族は誰に連絡すればよいかを知っており、人間に直接連絡を取ることができます。どんなに高度なアルゴリズムであっても、この役割を果たすことはできません。
主なリスクは技術的なものではなく、規制と哲学的なものです。この移行は、徳倫理から手続き主義への移行を表しています。立法者や機関が医療上の意思決定を個人の行為ではなくシステムの機能として再定義すると、医療の道徳的枠組みは変化します。説明責任は分散し、危害の帰属はより困難になり、責任は臨床医からプロセスへ、判断からプロトコルの遵守へと移行します。エラーが避けられない場合、「システムは確立されたガイドラインに従った」という説明が一般的になります。この移行を認識することで、個別化された倫理的意思決定から機械化された手続き遵守への移行が明確になります。
この懸念は理論的なものではありません。現代の医療は、説明責任の希薄化に関連する課題に既に直面しています。アルゴリズム主導の意思決定によって被害を受けた患者が、管理者、ベンダー、そして不透明なモデルの間で分断され、「誰がこの意思決定をしたのか」という根本的な問いに明確な答えが得られないのを私は見てきました。人工知能はこの問題を著しく加速させます。アルゴリズムは、道徳的な説明を提供したり、良心に基づいて自制したり、倫理的な懸念から行動を拒否したり、患者や家族に過ちを認めたりすることはできません。
AIによる自律性の向上を支持する人々は、しばしば効率性を正当化の根拠として挙げます。診療所は逼迫し、医師は燃え尽き症候群に陥り、患者は数分で済むはずの治療に何ヶ月も待たされることがしばしばあります。こうした懸念は当然のものであり、誠実な臨床医なら誰でもその懸念を認識しています。しかし、効率性だけでは医療の倫理的基盤を変えることを正当化できません。スピードと規模を最適化したシステムは、しばしばニュアンス、慎重さ、そして個人の尊厳を犠牲にしてしまいます。歴史的に、医療はケアとは本質的に取引ではなく関係性であることを強調することで、この傾向に抵抗してきました。
人工知能はこの関係を逆転させる危険性がある。個人ではなくシステムがケアを提供する場合、患者はもはや医師との契約ではなく、ワークフローの一部となる。医師は機械の監督者の役割を担う、あるいはより懸念されるのは、自らが行っていない決定に対する責任を吸収する法的緩衝材として機能することである。時が経つにつれ、臨床判断はプロトコル遵守に取って代わられ、道徳的主体性は徐々に低下していく。
AIは、より繊細で危険な問題も生み出します。それは、不確実性の隠蔽です。医療は曖昧さの中に存在します。エビデンスは確率論的であり、ガイドラインは暫定的です。患者がクリーンなデータセットとして現れることは稀です。臨床医は、単に行動を起こすだけでなく、躊躇するように訓練されています。つまり、情報が不十分な場合、介入が利益よりも害をもたらす可能性がある場合、あるいは待つことが適切な場合を認識するように訓練されているのです。AIが退院を勧めたにもかかわらず、患者の配偶者が不安そうにしているという状況を想像してみてください。アルゴリズムによる意思決定と人間の直感の間の緊張が浮き彫りになります。このような現実世界の摩擦は、曖昧さの危険性を浮き彫りにします。
AIシステムは不確実性を経験しません。出力を生成します。誤った結果を出す場合、しばしば根拠のない自信を持って出力します。これはプログラミング上の欠陥ではなく、統計モデリングに固有の特性です。経験豊富な臨床医が率直に疑問を表明するのとは異なり、大規模な言語モデルや機械学習システムは自身の限界を認識することができません。データが不十分な場合でも、もっともらしい回答を生成します。医学においては、根拠のないもっともらしさは危険となり得ます。
これらのシステムが臨床ワークフローのより早い段階で統合されるにつれて、その出力はその後の意思決定にますます影響を与えるようになります。時間の経過とともに、臨床医は推奨を、その妥当性ではなく、それが標準化されたという理由で信頼し始めるかもしれません。判断は、能動的な推論から受動的な受容へと徐々に移行します。このような状況では、「人間が関与する」ことは、象徴的な安全策に過ぎません。
AI推進派はしばしば、AIは医師に取って代わるのではなく「補助」するだけだと主張します。しかし、この安心感は薄弱です。AIが効率性の向上を実証すると、経済的および制度的な圧力が自律性の向上を促す傾向があります。システムが安全に処方箋の再発行を行えるようになれば、近いうちに再発行も許可されるかもしれません。一般的な疾患を正確に診断できる場合、医師による審査の必要性が疑問視されます。管理されたベンチマークにおいてAIが人間を上回った場合、人間のばらつきに対する許容度は低下します。
こうした傾向を踏まえると、具体的な安全対策を講じることが不可欠です。例えば、AIによる意思決定の5%に対して、不一致監査を義務付けることで、AIの推奨と人間の臨床判断の整合性を確保するための具体的なチェック機能を果たすことができます。同時に、規制当局や病院の理事会にAIの導入状況を監視するための実用的な指標を提供することも可能になります。
これらの疑問は悪意から提起されたものではなく、コスト抑制と拡張性を重視するシステムの中で自然に生じるものです。しかし、これらの疑問は、人間の判断が標準ではなく例外となる未来を示唆しています。そのようなシナリオでは、リソースのある人は引き続き人間によるケアを受け、そうでない人は自動化されたプロセスを通して指示を受けることになります。二層医療はイデオロギーではなく、最適化によってもたらされるのです。
この状況を特に危うくしているのは、明確な説明責任の所在が欠如していることです。AIによる意思決定が患者に危害を加えた場合、誰が責任を負うのでしょうか?名目上はシステムを監督しているのは臨床医でしょうか?それとも、システムを導入した機関でしょうか?モデルを訓練したベンダーでしょうか?それとも、その使用を承認した規制当局でしょうか?明確な答えがなければ、責任は消え去ります。そして、責任が消え去れば、信頼もすぐに失われてしまいます。
医療は根本的に信頼の上に成り立っています。患者は自らの身体、恐怖、そしてしばしば命を医師に託します。この信頼は、どんなに高度なアルゴリズムであっても、アルゴリズムに委ねることはできません。信頼は、患者の話を聞き、適応し、患者の行動に責任を持つことができる人間がそこにいるという安心感に根ざしているのです。
人工知能を完全に否定する必要はありません。AIは適切に活用すれば、事務作業の負担を軽減し、人間では検知できないパターンを特定し、臨床上の意思決定を支援することができます。医師は事務作業ではなく、患者ケアに多くの時間を費やすことができるようになります。しかし、このような未来を実現するには、医療実践の中核に人間の責任を維持するという明確なコミットメントが必要です。
「人間が関与する」とは、単なる象徴的な監督以上の意味を持つものでなければなりません。特定の個人がそれぞれの医療上の決定に責任を持ち、その根拠を理解し、アルゴリズムによる推奨を覆す権限と義務の両方を保持することを求めます。また、透明性、説明可能性、患者のインフォームドコンセント、そしてAIで代替するのではなく、人間の臨床医に投資するというコミットメントも必要です。
最大のリスクは、人工知能の過剰な力ではなく、むしろ機関が責任を放棄しようとする姿勢にある。効率性と革新性を追求するあまり、医療は技術的に高度化し、行政的に合理化される一方で、倫理的な本質を欠いた分野になってしまう危険性がある。
未来を考える上で、自問自答が不可欠です。2035年には、どのようなヒーラーがベッドサイドにいると想像できるでしょうか?この問いは、集団的な道徳的想像力を喚起し、人間の責任と思いやりのあるケアが医療実践の中心に据えられた未来を形作るよう促します。人工知能の進歩がこれらの根本的な価値観を損なうのではなく、高めるためには、集団的な主体性を結集することが不可欠です。
人工知能は医療行為を行うための認可を受けていない。しかし、医療は道徳的な重みを持たないシステムを中心に、ひっそりと再構築されつつある。このプロセスが抑制されずに続けば、医師は機械ではなく、プロトコルに置き換えられ、危害が生じた際に責任を負う者は誰もいなくなる、という事態にいつの日か直面することになるかもしれない。
それは進歩ではなく、放棄に等しい。
-
ジョセフ・ヴァロン医学博士 集中治療医、教授、そして独立医療同盟(Independent Medical Alliance)の会長。査読付き論文を980本以上執筆し、『Journal of Independent Medicine』誌の編集長を務めている。
すべての投稿を見る