Wer sollte für durch KI verursachte medizinische Fehler haften?

Maschinelle Lernalgorithmen (Machine Learning Algorithms, MLAs) analysieren große Datenmengen blitzschnell. Früher zu große Datenmengen, um von Menschen richtig ausgewertet zu werden, können jetzt genutzt werden, um lebensrettende medizinische Entscheidungen zu treffen. Die brennende Frage ist, ob AI diese Entscheidungen treffen darf. Und wenn ja, wie wirkt es sich auf Ärzte, Patienten und die aktuellen rechtlichen und behördlichen Rahmenbedingungen aus??


Experten des Health Ethics and Policy Lab im schweizerischen Zürich sind nur eine Gruppe, die Alarm über den Einsatz von KI auslöst. In einem kürzlich veröffentlichten Artikel wird die Besorgnis geäußert, dass Patienten aufgrund von Vorurteilen im Rahmen von GwG keine lebenswichtigen Behandlungen erhalten könnten.

Der Kern des Problems liegt darin, wie MLAs entwickelt werden. Das Papier legt nahe, dass automatisierte Systeme in erster Linie anhand von Daten trainiert wurden, die von männlichen kaukasischen Patienten stammen. Dieser „Mangel an Vielfalt“ kann zu Fehlentwicklungen führen. Infolgedessen leiden marginalisierte Gruppen möglicherweise an höheren medizinischen Versagensraten.

Ein weiterer Druckpunkt wird durch vorhandene menschliche Vorurteile innerhalb der von MLAs ausgenutzten „neuronalen Inputs“ erzeugt. Diese massiven Datensätze bieten der KI die Möglichkeit, vorhandene menschliche Vorurteile nachzuahmen oder neu auszudrücken.

Zu den möglichen Vorurteilen, die vom Menschen auf die KI übergehen könnten, gehören Vorurteile gegenüber einem hohen Body Mass Index (BMI), ethnischen oder rassistischen Gruppen und Diskriminierung aufgrund des Geschlechts. Dies ist äußerst beunruhigend, da Forscher bereits vermuten, dass die KI lebens- und lebensfähig ist Todesentscheidungen.

In Großbritannien haben Forscher kürzlich eine Studie veröffentlicht, in der AI die vorzeitige Sterblichkeit besser vorhersagte als mit herkömmlichen Methoden. Die Forscher glauben, dass dies Algorithmen ermöglichen könnte, „demografische, biometrische, klinische und Lebensstilfaktoren“ zu nutzen, um Patienten herauszufinden, die von einer früheren Intervention profitieren würden. Das Versäumnis, Patienten aufgrund erblicher Vorurteile zu lokalisieren, kann jedoch dazu führen, dass die Behandlung bestimmten Gruppen vorenthalten wird.

Eine andere Studie legt nahe, dass AI Krebspatienten mit einem hohen Risiko für 30- oder 150-Tage-Mortalität erfolgreich identifizieren kann. Demnach könnte AI dazu dienen, Patienten zu informieren, bevor sie eine teure Chemotherapie erhalten. Die Idee ist, dass es vielleicht besser ist, diese kostspielige Behandlung woanders zu verteilen.

Untersuchungen zu Global Markets, die eine Studie zu medizinischen Robotern durchgeführt haben, haben ProPrivacy.com mitgeteilt, dass "Berichten zufolge Krebspatienten mit starken Blutungen ein Medikament empfohlen wurde, das eine Verschlechterung der Blutung verursachen könnte."

Bei einer anderen Gelegenheit wurde ein AI-Algorithmus entwickelt, um vorherzusagen, welche Patienten mit einer Lungenentzündung sicher entlassen werden können. Zu Unrecht wurde festgestellt, dass Patienten mit Asthma in der Vorgeschichte ein geringeres Sterberisiko haben. RGM sagte uns:

„Dies lag daran, dass die Trainingsdaten belegen, dass Patienten mit Asthma in der Regel auf die Intensivstation gingen, eine aggressivere Behandlung erhielten und weniger wahrscheinlich starben. Der Algorithmus verstand dies nicht und verwendete die Regel, dass Asthmatiker ambulant behandelt werden sollten. “

Shailin Thomas, ein wissenschaftlicher Mitarbeiter an der Harvard University, merkt an, dass "selbst die besten Algorithmen zu einem gewissen Prozentsatz zu einer potenziell erheblichen Haftung führen". Dieses inhärente Haftungspotenzial schafft ein Rätsel, da es schwierig ist, genau zu verstehen, wer gehalten werden sollte verantwortlich für das, was letztendlich ein garantierter Prozentsatz von Fehlern ist.

Karl Foster, Legal Director bei Blake Morgan, erklärte gegenüber ProPrivacy.com, dass Kliniker vorerst haftbar bleiben:

„Letztendlich sind die Kliniker für ihre Patienten verantwortlich. es ist ein übergeordnetes Prinzip der Ärzteschaft. Es ist unwahrscheinlich, dass der Einsatz von KI diese Position kurzfristig ändert. “

„Wenn wir uns vorstellen, dass KI Testergebnisse abfragt und feststellt, dass ein bestimmtes Ergebnis das Risiko für die Entwicklung eines bestimmten medizinischen Zustands bei einem Patienten erhöht, muss der Kliniker letztendlich - und derzeit - weitere Untersuchungen durchführen. Der Kliniker bleibt weiterhin dafür verantwortlich, die von AI bereitgestellten Daten im Lichte anderer klinischer Informationen zu interpretieren und eine Entscheidung über die beste Behandlung zu treffen. “

Der Psychiater und Datenwissenschaftler Carlo Carandang ist hingegen der Ansicht, dass die Haftung bei den Herstellern liegen könnte:

"KI-Apps werden als Medizinprodukte behandelt, sodass die Leistung solcher klinischen KI-Apps in der Verantwortung der Unternehmen liegt, die sie herstellen, sowie der FDA und anderer Aufsichtsbehörden, die solche Medizinprodukte überwachen."

Nachforschungen zu Global Markets (RGM) haben ProPrivacy.com ergeben, dass, obwohl Kliniker derzeit scheinbar haftbar bleiben, „wenn Schäden durch falschen Inhalt und nicht durch die missbräuchliche Verwendung eines Algorithmus oder Geräts verursacht werden, die Verantwortlichkeit bei denen liegt, die und entwickelt haben Dann hat die Qualität es sichergestellt. “RGM merkt an, dass„ diese Linie möglicherweise nicht so einfach zu definieren ist. “

Thomas befürchtet, dass die Rechenschaftspflicht von Unternehmen dazu führen könnte, dass sie die Algorithmen überhaupt nicht mehr produzieren. Dies könnte sich äußerst nachteilig auf die Medizinbranche auswirken, da die KI bereits ihr Potenzial unter Beweis stellt.

In China beispielsweise verwendeten Forscher einen Algorithmus, um Hirntumoren erfolgreicher zu erkennen als die besten Ärzte des Landes. Diese Arten von Durchbrüchen können Leben retten - aber nur, wenn die Firmen, die AI produzieren, dies ohne ständige Haftungsbedenken tun können.

Michael Carson, leitender Anwalt bei Fletchers Solicitors, ist der Ansicht, dass die derzeitige Gesetzgebung in Großbritannien für die Entstehung medizinischer KI geeignet ist. Carson sagte ProPrivacy.com, dass:

„Wir sollten AI als ein weiteres Krankenhausgerät ansehen. Alle von der KI gemachten Fehler oder Fehldiagnosen sollten als medizinische Fahrlässigkeit behandelt werden, wobei die KI lediglich ein vom Krankenhaus verwendetes Instrument ist.

„Das Gesetz ist wahrscheinlich bereits robust genug, um Probleme zu lösen, die auf AI-Fehlfunktionen zurückzuführen sind. In Wirklichkeit kann KI als eine weitere Mischung aus Ausrüstung und Software angesehen werden, die bereits im gesamten Nationalen Gesundheitsdienst verbreitet ist. “

RGM stellt jedoch fest, dass die derzeitige Gesetzgebung möglicherweise nicht ausreichend zwischen "Fällen, in denen ein Fehler bei der Diagnose einer Technologie vorliegt" und Fällen, die auf "die Verwendung ungenauer oder unangemessener Daten" zurückzuführen sind, unterscheidet.

Letztendlich kann die KI nur auf die angegebenen Daten reagieren. Wenn diese Daten falsch oder verzerrt sind, bevor sie eingegeben werden, ist es schwer zu verstehen, wie Hersteller daran schuld sein können. Andererseits scheint es schwierig zu sein, Medizinern die Schuld für Entscheidungen zu geben, die ihnen aus der Hand gegeben wurden.

Foster sagte gegenüber ProPrivacy.com, dass die derzeitigen gesetzlichen Regelungen in den USA und in Europa "das maschinelle Lernen derzeit nicht vorwegnehmen, wenn die Software oder Datensätze für die Weiterentwicklung vorgesehen sind". Infolgedessen dürften sich die Fragen im Zusammenhang mit der Haftung im Laufe der Zeit ändern und die Regulierungsbehörden müssen flexibel bleiben, sich zu ändern.

Wer für MLAs haftbar gemacht werden soll, ist ein komplexes Thema, und es gibt bereits einige Meinungsverschiedenheiten. Eine Sache scheint sicher zu sein, da der Gesetzgeber angesichts der Geschwindigkeit, mit der die medizinische KI im Entstehen begriffen ist, vorsichtig sein und schnell handeln muss, um sicherzustellen, dass die Vorschriften den Anforderungen gewachsen sind. Zu oft, wenn neue Technologien auftauchen, treffen Durchbrüche den Markt vorzeitig und der Gesetzgeber muss aufholen.

Eines der größten Probleme bei KI ist, dass Kliniker nicht immer verstehen, warum MLAs Entscheidungen treffen. Dies liegt daran, dass die KI Entscheidungen mit massiven Datensätzen trifft, die Menschen nicht verarbeiten können. RGM erklärt dies aufgrund verbesserter Erfolgsraten:

„Ärzte könnten aufgrund eines gut dokumentierten Konzepts, das als Automatisierungstendenz bezeichnet wird, fälschlicherweise Entscheidungen der KI rechtfertigen. Hier kann der Mensch dazu neigen, einer Maschine mehr zu vertrauen als sich selbst. “

Dieses Potenzial ist äußerst besorgniserregend, insbesondere wenn Experten davor warnen, dass Algorithmen mit menschlichen Vorurteilen vorprogrammiert sind, die zu Fehlverhalten führen können.

Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me