Hvem skal være ansvarlig for medicinske fejl forårsaget af AI?

Maskinlæringsalgoritmer (MLA'er) analyserer store mængder data ved lynhastigheder. Datasæt, der engang var for store til at mennesker kunne evaluere korrekt, kan nu udnyttes til at tage livreddende medicinske beslutninger. Det brændende spørgsmål er, om AI skal have lov til at træffe disse valg. Og hvis ja, hvordan påvirker det læger, patienter og de nuværende juridiske og lovgivningsmæssige rammer?


Eksperter ved Health Ethics and Policy Lab i Zürich, Schweiz, er kun en gruppe, der begynder at give alarm over brugen af ​​AI. Et nyligt offentliggjort papir udtrykker bekymring for, at patienter kunne nægtes vitale behandlinger på grund af forudindtægter inden for MLA'er.

Problemets kerne drejer sig om, hvordan MLA'er udvikles. Papiret antyder, at automatiserede systemer primært er blevet trænet ved hjælp af data, der er udvindet fra mandlige kaukasiske patienter. Denne "mangel på mangfoldighed" kan føre til forudindtægter, der forårsager fejl. Som et resultat kan marginaliserede grupper ende med at lide af højere medicinske svigtfrekvenser.

Et andet prespunkt skabes af eksisterende menneskelige forspændinger inden for ”neurale input”, der udnyttes af MLA'er. Disse enorme datasæt skaber potentialet for AI til at efterligne eller udtrykke eksisterende menneskelige fordrejninger.

De slags partier, der potentielt kan overføres fra mennesker til AI, inkluderer fordomme mod højt kropsmasseindeks (BMI), race eller etniske grupper og kønsdiskriminering. Dette er meget foruroligende, fordi forskere allerede antyder, at AI er i stand til at skabe liv og dødsbeslutninger.

I Storbritannien offentliggjorde forskere for nylig en undersøgelse, hvor AI korrekt forudsagde for tidlig dødelighed bedre end traditionelle metoder. Forskere mener, at dette kunne give algoritmer mulighed for at bruge "demografiske, biometriske, kliniske og livsstilsfaktorer" til at udskille patienter, der ville drage fordel af tidligere intervention. Imidlertid kan enhver manglende identificering af patienter på grund af nedarvede forveje medføre, at behandlingen tilbageholdes fra bestemte grupper.

En anden undersøgelse antyder, at AI med succes kan identificere kræftpatienter, der har en høj risiko for 30-dages eller 150-dages dødelighed. Ifølge denne undersøgelse kunne AI bruges til at markere patienter, inden de får dyre kemoterapi. Ideen er, at det kan være bedre at afsætte den dyre behandling andre steder.

Forskning på Global Markets, der har foretaget en undersøgelse af medicinske robotter, fortalte ProPrivacy.com, at "rapporter har antydet, at kræftpatienter med alvorlig blødning er blevet anbefalet et lægemiddel, der kan få blødningen til at forværres."

Ved en anden lejlighed besluttede en AI-algoritme designet til at forudsige, hvilke patienter med lungebetændelse kunne udskrives sikkert - forkert besluttet, at patienter med en historie med astma havde en lavere risiko for at dø. RGM fortalte os:

”Dette skyldtes, at det var sandt ud fra træningsdataene, da patienter med astma normalt gik til ICU, fik mere aggressiv pleje, og det var derfor mindre sandsynligt, at de døde. Algoritmen forstod ikke dette og brugte reglen om, at hvis nogen havde astma, skulle de behandles som en ambulant. ”

Shailin Thomas, en forskningsmedarbejder ved Harvard University bemærker, at "selv de bedste algoritmer vil give anledning til potentielt betydeligt ansvar en procentdel af tiden." Dette iboende potentiale for ansvar skaber et puslespil, fordi det er vanskeligt at forstå nøjagtigt, hvem der skal holdes ansvarlig for, hvad der i sidste ende er en garanteret procentdel af fejl.

Karl Foster, juridisk direktør hos Blake Morgan, fortalte ProPrivacy.com, at klinikere indtil videre forbliver ansvarlige:

”I sidste ende er klinikere ansvarlige for deres patienter; det er et altoverskyggende princip for medicinfaget. Brug af AI vil sandsynligvis ikke ændre denne position, bestemt på kort sigt ”

”Hvis vi forestiller os, at AI forhører testresultater og bestemmer, at et bestemt resultat øger risikoen for at udvikle en specifik medicinsk tilstand hos en patient, til sidst - og i øjeblikket - er det til klinikeren at undersøge nærmere. Klinikeren vil fortsat være ansvarlig for at fortolke de data, der leveres af AI i lyset af anden klinisk information, og nå en beslutning om den bedste behandling. ”

Psykiater og dataforsker Carlo Carandang mener på den anden side, at ansvar kan opholde sig hos producenterne:

"AI-apps vil blive behandlet som medicinsk udstyr, så udførelsen af ​​sådanne kliniske AI-apps er ansvaret for de virksomheder, der bygger dem, og FDA og andre regulerende agenturer, der fører tilsyn med sådant medicinsk udstyr."

Forskning på Global Markets (RGM) fortalte ProPrivacy.com, at selv om klinikere i øjeblikket ser ud til at være ansvarlige ”i tilfælde af skade, der skyldes forkert indhold snarere end forkert brug af en algoritme eller enhed, skal ansvarlighed ligge hos dem, der designede og derefter kvalitetssikret det. ”RGM bemærker, at“ denne linje muligvis ikke er så let at definere. ”

Thomas er bekymret over, at det at holde virksomheder ansvarlige kan føre til, at de ophører med at fremstille algoritmerne helt. Dette kan være yderst skadeligt for den medicinske industri, fordi AI allerede beviser sit potentiale.

I Kina anvendte forskere for eksempel en algoritme til at opdage hjernesvulster mere succes end landets bedste læger. Disse slags gennembrud kan redde liv - men kun hvis de virksomheder, der producerer AI, kan gøre det uden konstant bekymringsansvar.

Michael Carson, senior advokat hos Fletchers Solicitors mener, at den nuværende lovgivning i Storbritannien er egnet til at håndtere fremkomsten af ​​medicinsk AI. Carson fortalte ProPrivacy.com at:

”Vi skulle se AI som bare et andet stykke hospitaludstyr. Eventuelle fejl eller fejldiagnoser, der er foretaget af AI, skal behandles som et medicinsk uagtsomhedskrav, idet AI blot er et værktøj, der anvendes af hospitalet.

”Loven er sandsynligvis allerede robust nok til at håndtere problemer, der stammer fra AI-fejl. I virkeligheden kan AI ses som blot en anden blanding af udstyr og software, der allerede er udbredt i hele National Health Service. ”

RGM bemærker imidlertid, at den nuværende lovgivning muligvis ikke i tilstrækkelig grad skelner mellem "tilfælde, hvor der er en fejl i diagnosefejl af en teknologi" og sager forårsaget af "brug af unøjagtige eller upassende data."

I slutningen af ​​dagen kan AI kun handle på de data, den får. Hvis disse data er forkerte eller partiske, før de indtastes - er det svært at forstå, hvordan producenterne kan have en fejl. På den anden side ser det ud til, at det er svært at lægge skylden på læger for beslutninger, der er taget ud af deres hænder.

Foster fortalte ProPrivacy.com, at de nuværende regulatoriske ordninger i USA og Europa ”ikke i øjeblikket forudser maskinlæring, hvor softwaren eller datasættene er designet til at udvikle sig.” Som et resultat vil spørgsmål omkring ansvar sandsynligvis udvikle sig over tid, og regulerende myndigheder har brug for at forblive fleksibel til ændring.

Hvem der skal være ansvarlig for MLA'er er et komplekst problem, og der er allerede nogen uenighed. Én ting forekommer sikker på grund af den hastighed, hvormed medicinsk AI vokser frem, og lovgivere skal være på vagt, og de skal handle hurtigt for at sikre, at forordninger er parate til at klare. Når alt for ofte opstår nye teknologier, rammer gennembrud markedet for tidligt, og lovgivere bliver tvunget til at spille indhentning.

Et af de største problemer med AI er, at klinikere ikke altid forstår, hvorfor MLA'er træffer beslutninger. Dette skyldes, at AI træffer valg ved hjælp af massive datasæt, som mennesker ikke kan behandle. RGM forklarer, at på grund af forbedrede succesrater:

”Læger kan muligvis finde sig ukorrekt berettigede af beslutninger truffet af AI på grund af et veldokumenteret koncept kendt som automatiseringsforspenning. Her kan mennesker have en tendens til at stole på en maskine mere, end de måske har tillid til sig selv. ”

Dette potentiale er yderst betænkeligt, især når eksperter advarer om, at algoritmer kan komme forprogrammeret med menneskelige biaser, der kan forårsage malpractice.

Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me