AIによって引き起こされる医療過誤に対して誰が責任を負うべきですか?

機械学習アルゴリズム(MLA)は、大量のデータを超高速で分析します。かつては人間が適切に評価するには大きすぎたデータセットを利用して、命を救う医療上の決定を下すことができます。燃え上がる問題は、AIがそれらの選択を許可されるべきかどうかです。そして、はいの場合、医師、患者、および現在の法的および規制の枠組みにどのように影響しますか?

スイスのチューリッヒにある健康倫理と政策研究所の専門家は、AIの使用に関して警戒心を高め始めているグループの1つにすぎません。最近発表された論文は、MLA内の偏りのために患者が重要な治療を拒否される可能性があるという懸念を表明しています.

問題の核心は、MLAの開発方法を中心に展開します。この論文は、自動化システムは主に白人男性患者から採掘されたデータを使用して訓練されていることを示唆しています。この「多様性の欠如」は、エラーを引き起こすバイアスにつながる可能性があります。その結果、疎外されたグループはより高い医学的失敗率に苦しむことになります。.

別のプレッシャーポイントは、MLAによって悪用される「神経入力」内の既存の人間のバイアスによって作成されます。これらの大量のデータセットは、AIが既存の人間のバイアスを模倣または再表現する可能性を生み出します.

人間からAIに潜在的に渡りうるバイアスの種類には、高ボディマス指数(BMI)、人種または民族グループに対する偏見、性差別が含まれます。これは、AIが生命を作り、死の決定.

英国では、研究者が最近、AIが従来の方法よりも早期死亡率を正しく予測した研究を発表しました。研究者は、これにより、アルゴリズムが「人口統計、生体、臨床、およびライフスタイルの要因」を利用して、以前の介入の恩恵を受ける患者を選別できると考えています。ただし、遺伝的偏見による患者の特定に失敗すると、特定のグループから治療が差し控えられる可能性があります.

別の研究は、AIが30日または150日の死亡のリスクが高い癌患者をうまく特定できることを示唆しています。その研究によると、AIは患者が高価な化学療法を受ける前にフラグを立てるために使用できます。その高価な治療を他の場所に割り当てる方が良いかもしれないという考え.

医療ロボットの研究を行ったグローバルマーケットの研究は、ProPrivacy.comに、「重度の出血を伴うがん患者は、出血を悪化させる可能性のある薬が推奨されていることを示唆している」と語った。

別の機会に、どの肺炎患者が安全に退院できるかを予測するために設計されたAIアルゴリズム-喘息の病歴がある患者は死亡のリスクが低いと誤って判断されました。 RGMは次のように語っています。

「これは、喘息の患者が通常ICUに行き、より積極的なケアを受け、死亡する可能性が低いため、トレーニングデータから真実であったためです。アルゴリズムはこれを理解しておらず、誰かが喘息を患っている場合、外来患者として扱われるべきであるというルールを使用しました。」

ハーバード大学の研究員であるシャイリン・トーマスは、「最高のアルゴリズムでさえ、ある程度の割合で潜在的に相当な責任を生じる可能性がある」と指摘します。この責任の潜在的潜在性はパズルを作成します。最終的に保証されたミスの割合について責任を負う.

ブレイクモーガンの法務部長カールフォスターは、ProPrivacy.comに、当面は臨床医が責任を負うと語った。

「最終的に、臨床医は患者に責任を負います。それは医療専門職の最優先原則です。 AIの使用は、確かに短期的にその位置を変える可能性は低い」

「AIが検査結果を調べ、特定の結果が患者の特定の病状を発症するリスクを高めると判断した場合、最終的には現在、臨床医はさらに調査する必要があります。臨床医は、AIが提供するデータを他の臨床情報に照らして解釈し、最良の治療法に関する決定を下す責任を負います。」

一方、精神科医およびデータ科学者のCarlo Carandangは、責任は製造業者にあると考えています。

「AIアプリは医療機器として扱われるため、このような臨床AIアプリの性能は、それらを構築する企業、およびそのような医療機器を監督するFDAおよびその他の規制機関の責任となります。」

グローバルマーケット(RGM)の調査では、ProPrivacy.comに、現在の臨床医は「アルゴリズムまたはデバイスの不適切な使用ではなく、不適切なコンテンツが原因で危害が発生した場合、責任を負います」 RGMは、「この行を定義するのはそれほど簡単ではないかもしれない」と指摘しています。

トーマスは、企業に説明責任を持たせることで、アルゴリズムを完全に作成しなくなる可能性があることを懸念しています。 AIはすでにその可能性を証明しているため、これは医療業界にとって非常に有害です。.

たとえば、中国では、研究者がアルゴリズムを使用して、米国の最高の医師よりも脳腫瘍をよりうまく検出しました。これらの種類のブレークスルーは、命を救うことができます。.

Fletchers Solicitorsの上級弁護士Michael Carsonは、英国では現在の法律が医療AIの出現に対処するのに適していると考えています。カーソンはProPrivacy.comに次のように語った。

「私たちはAIを単なる病院の設備の1つと見なすべきです。 AIによって行われたエラーや誤診は、医療過失の主張として扱われるべきであり、AIは単に病院で使用されるツールです.

「この法律は、AIの誤動作に起因する問題に対処するのに十分なほど既に強固である可能性が高い。実際には、AIは機器とソフトウェアの単なる別のブレンドと見なすことができ、これはすでに国民保健サービス全体で普及しています。」

ただし、RGMは、現在の法律では、「技術の診断の誤動作に誤りがある場合」と「不正確または不適切なデータの使用」に起因する場合を十分に区別できない場合があることに留意しています。

一日の終わりには、AIは与えられたデータに対してのみ行動できます。そのデータが入力される前に間違っているか偏っている場合、メーカーがどのように過失に陥るかを理解することは困難です。一方で、医療専門家が自分の手から下された決定を非難するのは難しいようです.

FosterはProPrivacy.comに、現在の米国およびヨーロッパの規制制度は、「ソフトウェアまたはデータセットが進化するように設計されている機械学習を現在予想していない」と語った。変化に柔軟に対応するため.

MLAの責任者は複雑な問題であり、すでにいくつかの意見の相違があります。医療AIの出現速度の速さから、1つ確かなことがあるようです。多くの場合、新しい技術が登場すると、突破口が市場に時期尚早に当たり、議員は追いつくことを余儀なくされます。.

AIの最大の問題の1つは、臨床医がMLAが決定を下す理由を必ずしも理解していないことです。これは、AIが人間が処理できない大量のデータセットを使用して選択を行うためです。 RGMは、成功率が向上したため、次のように説明しています。

「医師は、自動化バイアスと呼ばれるよく文書化された概念のために、AIが下した決定を誤って正当化することがあります。ここでは、人間は自分自身を信頼するよりもマシンを信頼する傾向があります。」

この可能性は、特に専門家が、アルゴリズムが医療過誤を引き起こす可能性のある人間のバイアスで事前にプログラムされている可能性があると警告している場合、非常に懸念されます。.

Brayan Jackson
Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me