Vem ska ansvara för medicinska fel orsakade av AI?

Maskininlärningsalgoritmer (MLAs) analyserar stora mängder data i blixtnedslag. Datauppsättningar som en gång var för stora för att människor skulle kunna utvärdera på rätt sätt kan nu utnyttjas för att fatta livsmedelsbesparande medicinska beslut. Den brinnande frågan är om AI bör tillåtas göra dessa val. Och om ja, hur påverkar det läkare, patienter och gällande rättsliga och regelverk?

Experter på Health Ethics and Policy Lab i Zürich, Schweiz, är bara en grupp som börjar väcka oro över användningen av AI. En nyligen publicerad artikel uttrycker oro över att patienter kan nekas vitala behandlingar på grund av fördomar inom MLA.

Kärnan i problemet handlar om hur MLA utvecklas. Uppsatsen tyder på att automatiserade system främst har utbildats med hjälp av data som utvunnits från manliga kaukasiska patienter. Denna "brist på mångfald" kan leda till fördomar som orsakar fel. Som ett resultat kan marginaliserade grupper hamna i högre medicinska misslyckanden.

En annan tryckpunkt skapas av befintliga mänskliga fördomar inom de "neurala ingångarna" som utnyttjas av MLA: er. Dessa massiva datamängder skapar potentialen för AI att härma eller uttrycka befintliga mänskliga fördomar.

De typer av förspänningar som potentiellt kan övergå från människor till AI inkluderar fördomar gentemot hög kroppsmassaindex (BMI), ras- eller etniska grupper och könsdiskriminering. Detta är mycket oroande, eftersom forskare redan föreslår att AI kan göra liv och dödsbeslut.

I Storbritannien publicerade forskare nyligen en studie där AI korrekt förutspådde för tidig dödlighet bättre än traditionella metoder. Forskare tror att detta kan tillåta algoritmer att använda "demografiska, biometriska, kliniska och livsstilsfaktorer" för att utesluta patienter som skulle dra nytta av tidigare intervention. Emellertid kan varje misslyckande med att fastställa patienter på grund av ärftliga fördomar orsaka att behandling behandlas från vissa grupper.

En annan studie antyder att AI framgångsrikt kan identifiera cancerpatienter som har en hög risk för 30-dagars eller 150-dagars dödlighet. Enligt den forskningen kan AI användas för att flagga upp patienter innan de får dyr kemoterapi. Tanken är att det kan vara bättre att fördela den dyra behandlingen någon annanstans.

Forskning om globala marknader, som har genomfört en studie om medicinska robotar, berättade för ProPrivacy.com att "rapporter har antytt att cancerpatienter med svår blödning har rekommenderats ett läkemedel som kan få blödningen att förvärras."

Vid ett annat tillfälle bestämde en AI-algoritm utformad för att förutsäga vilka patienter med lunginflammation som säkert skulle kunna släppas ut - felaktigt beslutade att patienter med en historia av astma hade en lägre risk att dö. RGM berättade för oss:

”Detta berodde på att det var sant från träningsdata, eftersom patienter med astma vanligtvis gick till ICU, fick mer aggressiv vård, och därför var det mindre troligt att de dör. Algoritmen förstod inte detta och använde regeln att om någon hade astma skulle de behandlas som en öppenvård. ”

Shailin Thomas, en forskningsassistent vid Harvard University konstaterar att "även de bästa algoritmerna kommer att ge upphov till potentiellt betydande ansvar någon procent av tiden." Denna inneboende potential för ansvar skapar ett pussel, eftersom det är svårt att förstå exakt vem som ska hållas ansvarar för vad som i slutändan är en garanterad procentandel av misstag.

Karl Foster, juridisk direktör på Blake Morgan, berättade för ProPrivacy.com att klinikerna för närvarande kommer att förbli ansvariga:

”I slutändan är kliniker ansvariga för sina patienter; det är en övergripande princip för läkareyrket. Användning av AI kommer sannolikt inte att ändra den positionen, säkert på kort sikt ”

”Om vi ​​föreställer oss att AI förhör testresultat och bestämmer att ett visst resultat ökar risken för att utveckla ett specifikt medicinskt tillstånd hos en patient, så småningom - och för närvarande - är det för klinikern att undersöka ytterligare. Klinikern kommer att förbli ansvarig för att tolka uppgifterna från AI mot bakgrund av annan klinisk information och ta ett beslut om den bästa behandlingen. ”

Psykiater och datavetare Carlo Carandang anser å andra sidan att ansvar kan ligga hos tillverkare:

"AI-appar kommer att behandlas som medicintekniska apparater, så resultatet av sådana kliniska AI-appar kommer att vara ansvaret för företagen som bygger dem, och FDA och andra tillsynsmyndigheter som övervakar sådana medicinska apparater."

Forskning på Global Markets (RGM) berättade för ProPrivacy.com att även om kliniker för närvarande verkar förbli ansvariga ”i händelse av skada orsakat av felaktigt innehåll snarare än felaktig användning av en algoritm eller enhet, måste ansvaret ligga hos dem som designade och sedan kvalitetssäkrade det. ”RGM konstaterar att” den här linjen kanske inte är så lätt att definiera. ”

Thomas är orolig över att hålla företag ansvariga kan leda till att de slutar producera algoritmerna helt. Detta kan vara extremt skadligt för den medicinska industrin, eftersom AI redan bevisar sin potential.

I Kina, till exempel, använde forskare en algoritm för att upptäcka hjärntumörer mer framgångsrikt än landets bästa läkare. Dessa slags genombrott kan rädda liv - men bara om de företag som producerar AI kan göra det utan ständiga ansvarsförhållanden..

Michael Carson, senior advokat på Fletchers Solicitors anser att den nuvarande lagstiftningen i Storbritannien är lämplig att hantera uppkomsten av medicinsk AI. Carson berättade för ProPrivacy.com att:

”Vi borde se AI som bara en annan utrustning på sjukhus. Eventuella fel eller felaktiga diagnoser som görs av AI bör behandlas som ett medicinskt försumlighetskrav, varvid AI bara är ett verktyg som används av sjukhuset.

”Lagen är förmodligen tillräckligt robust för att hantera problem som härrör från AI-störningar. I verkligheten kan AI ses som ännu en blandning av utrustning och mjukvara, som redan är utbredd i hela National Health Service. ”

RGM konstaterar emellertid att den nuvarande lagstiftningen kanske inte tillräckligt skiljer mellan "fall där det finns ett fel i diagnosfel i en teknik" och fall orsakade av "användning av felaktiga eller olämpliga data."

I slutet av dagen kan AI endast agera på uppgifterna. Om dessa data är felaktiga eller partiska innan de matas in - är det svårt att förstå hur tillverkare kan ha fel. Å andra sidan verkar det svårt att skylla läkare för beslut som fattats ur deras hand.

Foster berättade för ProPrivacy.com att nuvarande regleringsregimer i USA och Europa "för närvarande inte förutser maskininlärning där programvaran eller datasätten är utformade för att utvecklas." Som ett resultat kommer frågor kring ansvar sannolikt att utvecklas över tid och tillsynsmyndigheterna kommer att behöva att förbli flexibel för att förändras.

Vem som ska vara ansvarig för MLA: er är en komplex fråga, och det finns redan viss oenighet. En sak verkar säker, på grund av den hastighet med vilken medicinsk AI växer måste lagstiftare vara försiktiga och måste agera snabbt för att se till att förordningarna är beredda att klara sig. Alltför ofta, när ny teknik dyker upp, träffar genombrott marknaden för tidigt och lagstiftare tvingas spela upp.

Ett av de största problemen med AI är att kliniker inte alltid förstår varför MLA: er fattar beslut. Detta beror på att AI gör val med massiva datauppsättningar som människor inte kan behandla. RGM förklarar att på grund av förbättrade framgångar:

”Läkarna kan finna sig felaktigt motivera beslut som fattats av AI på grund av ett väl dokumenterat koncept som kallas automatiseringsförspänning. Här kan människor ha en tendens att lita på en maskin mer än de kan lita på sig själva. ”

Denna potential är extremt oroande, speciellt när experter varnar för att algoritmer kan komma förprogrammerade med mänskliga fördomar som kan orsaka felbrott.

Brayan Jackson
Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me