Kdo by měl být odpovědný za lékařské chyby způsobené umělou inteligencí?

Algoritmy strojového učení (MLA) analyzují obrovské množství dat rychlostí blesku. Soubory dat, které byly kdysi příliš velké na to, aby je člověk správně vyhodnotil, lze nyní využít k přijímání lékařských rozhodnutí zachraňujících život. Horkou otázkou je, zda by AI mělo mít možnost rozhodovat se. A pokud ano, jak to ovlivní lékaře, pacienty a současné právní a regulační rámce?


Experti v laboratoři pro etiku a politiku zdraví ve švýcarském Curychu jsou jen jednou skupinou, která začíná upozorňovat na používání AI. Nedávno publikovaný dokument vyjadřuje obavy, že by pacientům mohlo být odepřeno vitální ošetření v důsledku zkreslení v rámci MLA.

Těžiště problému se točí kolem toho, jak se vyvíjejí MLA. Příspěvek naznačuje, že automatizované systémy byly primárně vyškoleny s využitím údajů těžených od mužských kavkazských pacientů. Tento „nedostatek rozmanitosti“ může vést k předpojatostem, které způsobují chyby. V důsledku toho mohou marginalizované skupiny nakonec trpět vyšší mírou lékařských selhání.

Dalším tlakovým bodem jsou stávající lidské předpojatosti v rámci „neurálních vstupů“ využívaných MLA. Tyto masivní datové soubory vytvářejí potenciál pro umělou inteligenci napodobovat nebo znovu vyjadřovat existující lidské předpojatosti.

Mezi předsudky, které by potenciálně mohly přecházet z člověka na umělou inteligenci, patří předsudky vůči vysokému indexu tělesné hmotnosti (BMI), rasovým nebo etnickým skupinám a diskriminaci podle pohlaví. To je velmi znepokojivé, protože vědci již naznačují, že umělá inteligence je schopna vydělat život a rozhodnutí o smrti.

Ve Velké Británii vědci nedávno zveřejnili studii, ve které umělá inteligence správně předpovídala předčasnou úmrtnost lépe než tradiční metody. Vědci se domnívají, že by to mohlo umožnit algoritmům využívat „demografické, biometrické, klinické a životní faktory“ k určení pacientů, kteří by měli prospěch z dřívější intervence. Jakékoli selhání při určování pacientů v důsledku zděděných předpojatostí by však mohlo způsobit, že léčba nebude z určitých skupin odepřena.

Další studie naznačuje, že umělá inteligence dokáže úspěšně identifikovat pacienty s rakovinou, u nichž je vysoké riziko úmrtnosti na 30 dní nebo 150 dnů. Podle tohoto výzkumu lze AI použít k označení pacientů dříve, než dostanou nákladnou chemoterapii. Myšlenka je, že může být lepší alokovat toto nákladné zacházení jinde.

Výzkum na globálních trzích, který provedl studii lékařských robotů, řekl ProPrivacy.com, že „zprávy naznačují, že pacientům s rakovinou se závažným krvácením bylo doporučeno lék, který by mohl způsobit zhoršení krvácení.“

Při jiné příležitosti algoritmus umělé inteligence navržený tak, aby předpovídal, kteří pacienti s pneumonií by mohli být bezpečně propuštěni - nesprávně rozhodl, že pacienti s anamnézou astmatu měli nižší riziko úmrtí. RGM nám řekl:

"Bylo to proto, že to bylo z údajů o školení, protože pacienti s astmatem obvykle chodili na JIP, dostávali agresivnější péči, a tak méně pravděpodobně zemřeli." Algoritmus tomu nerozuměl a použil pravidlo, že pokud má někdo astma, mělo by se s ním zacházet jako s ambulantním pacientem. “

Shailin Thomas, výzkumný spolupracovník na Harvardské univerzitě, poznamenává, že „i ty nejlepší algoritmy povedou k potenciálnímu podstatnému ručení po určité procento času.“ Tento vlastní potenciál odpovědnosti vytváří hádanku, protože je obtížné přesně pochopit, kdo by měl být držen zodpovědný za to, co je nakonec zaručené procento chyb.

Karl Foster, právní ředitel společnosti Blake Morgan, řekl společnosti ProPrivacy.com, že prozatím budou kliničtí pracovníci nadále odpovědní:

"Nakonec jsou za své pacienty odpovědní lékaři; je to prvořadý princip lékařské profese. Použití umělé inteligence pravděpodobně tuto pozici nezmění, určitě v krátkodobém horizontu. “

„Pokud si představíme, že výsledky vyšetřování umělé inteligence a zjištění, že konkrétní výsledek zvyšuje riziko rozvoje určitého zdravotního stavu u pacienta, nakonec - a v současné době - ​​je na klinickém lékaři, aby dále prozkoumal. Klinický lékař bude i nadále odpovědný za interpretaci údajů poskytnutých AI ve světle dalších klinických informací a za rozhodnutí o nejlepší léčbě. “

Psychiatr a datový vědec Carlo Carandang se naproti tomu domnívá, že odpovědnost by mohla spočívat u výrobců:

"Aplikace AI budou považovány za zdravotnické prostředky, takže za výkon těchto klinických aplikací AI budou odpovědné společnosti, které je vyrábějí, a FDA a další regulační agentury, které dohlížejí na tyto zdravotnické prostředky."

Výzkum na globálních trzích (RGM) řekl ProPrivacy.com, že ačkoliv v současné době se zdá, že kliničtí lékaři zůstávají odpovědní „v případě poškození způsobeného nesprávným obsahem spíše než nesprávným použitím algoritmu nebo zařízení, pak odpovědnost musí nést ten, kdo navrhl a pak to zajistila kvalita. “RGM poznamenává, že„ tento řádek nemusí být tak snadno definovatelný “.

Thomas se obává, že držení odpovědných firem by mohlo vést k tomu, že by ukončily výrobu algoritmů. To by mohlo být velmi škodlivé pro lékařský průmysl, protože AI již prokazuje svůj potenciál.

Například v Číně vědci používali algoritmus k detekci mozkových nádorů úspěšněji než nejlepší národní lékaři v zemi. Tyto průlomy mohou zachránit životy - ale pouze v případě, že firmy, které vyrábějí umělou inteligenci, to dokážou bez trvalého znepokojení z odpovědnosti.

Michael Carson, vedoucí právník společnosti Fletchers Solicitors, se domnívá, že ve Velké Británii je současná legislativa schopna zvládnout vznik lékařské AI. Carson řekl ProPrivacy.com, že:

"AI bychom měli považovat za další nemocniční vybavení." Jakékoli chyby nebo nesprávná diagnóza způsobené umělou inteligencí by měly být považovány za požadavek lékařské nedbalosti, přičemž umělá inteligence je pouze nástrojem používaným nemocnicí..

„Zákon je pravděpodobně dostatečně robustní, aby se vypořádal s problémy vyplývajícími z poruch AI. Ve skutečnosti lze na umělou inteligenci pohlížet pouze jako na další směs zařízení a softwaru, která je již rozšířená v celé Národní zdravotnické službě. “

RGM však poznamenává, že stávající právní předpisy nemusí dostatečně rozlišovat mezi „případy, kdy došlo k chybě v diagnostice nesprávné funkce technologie“, a případy způsobenými „použitím nepřesných nebo nevhodných údajů“.

Na konci dne může umělá inteligence jednat pouze s údaji, které jí byly poskytnuty. Pokud jsou tato data nesprávná nebo zkreslená, před jejich vložením - je těžké pochopit, jak mohou být výrobci zavinění. Na druhou stranu se zdá obtížné obviňovat zdravotnické pracovníky za rozhodnutí přijatá z jejich rukou.

Foster řekl ProPrivacy.com, že současné regulační režimy v USA a Evropě „v současné době neočekávají strojové učení tam, kde je vyvíjen software nebo datové soubory.“ Výsledkem je, že otázky týkající se odpovědnosti se budou časem vyvíjet a regulační orgány budou potřebovat aby zůstala flexibilní při změně.

Kdo by měl být odpovědný za MLA, je složitý problém a již existují určité neshody. Jedna věc se jeví jako jistá, vzhledem k rychlosti, jakou se objevuje lékařská umělá inteligence, je třeba být opatrný a musí rychle jednat, aby byla zajištěna připravenost na regulaci. Když se objevují nové technologie, příliš často se na trh objevují průlomy předčasně a zákonodárci jsou nuceni dohnat dohánění.

Jedním z největších problémů s umělou inteligencí je to, že lékaři vždy nechápou, proč MLA rozhodují. Je to proto, že umělá inteligence volí pomocí rozsáhlých datových souborů, které lidé nemohou zpracovat. RGM vysvětluje, že díky zlepšené míře úspěšnosti:

„Lékaři se mohou ocitnout nesprávně odůvodňující rozhodnutí učiněná AI kvůli dobře zdokumentovanému konceptu známému jako zkreslení automatizace. Zde mohou mít lidé tendenci důvěřovat stroji více, než si mohou důvěřovat. “

Tento potenciál je velmi znepokojivý, zejména když odborníci varují, že algoritmy mohou být předprogramovány s lidskými předpojatostmi, které mohou způsobit nesprávnou praktiku.

Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me