Hvem skal være ansvarlig for medisinske feil forårsaket av AI?

Machine Learning Algorithms (MLAs) analyserer store datamengder i lynhastigheter. Datasett som en gang var for store til at mennesker kunne evaluere riktig, kan nå utnyttes til å ta livreddende medisinske avgjørelser. Det brennende spørsmålet er om AI skal få lov til å ta disse valgene. Og hvis ja, hvordan påvirker det leger, pasienter og gjeldende juridiske og lovgivningsmessige rammer?

Eksperter ved Health Ethics and Policy Lab i Zürich, Sveits, er bare en gruppe som begynner å gi alarm over bruken av AI. Et nylig publisert papir uttrykker bekymring for at pasienter kan bli nektet viktige behandlinger på grunn av skjevheter i MLAs.

Problemet dreier seg om hvordan MLAs utvikles. Oppgaven antyder at automatiserte systemer primært har blitt opplært ved bruk av data som er utvunnet fra mannlige kaukasiske pasienter. Denne "mangelen på mangfold" kan føre til skjevheter som forårsaker feil. Som et resultat kan marginaliserte grupper ende opp med å lide av høyere medisinsk sviktfrekvens.

Et annet trykkpunkt er skapt av eksisterende menneskelige skjevheter innenfor "nevrale innganger" utnyttet av MLAer. Disse massive datasettene skaper potensialet for at AI kan etterligne eller uttrykke eksisterende menneskelige skjevheter.

Den slags skjevheter som potensielt kan gå fra mennesker til AI inkluderer fordommer mot høy kroppsmasseindeks (BMI), rasemessige eller etniske grupper, og diskriminering av kjønn. Dette er svært urovekkende, fordi forskere allerede antyder at AI er i stand til å gjøre liv og dødsvedtak.

I Storbritannia publiserte forskere nylig en studie der AI korrekt forutsa for tidlig dødelighet bedre enn tradisjonelle metoder. Forskere mener at dette kan tillate algoritmer å bruke "demografiske, biometriske, kliniske og livsstilsfaktorer" for å utpeke pasienter som vil ha nytte av tidligere intervensjon. Imidlertid kan enhver manglende identifisering av pasienter på grunn av arvelige skjevheter føre til at behandlingen holdes tilbake fra bestemte grupper.

En annen studie antyder at AI med suksess kan identifisere kreftpasienter som har høy risiko for 30-dagers eller 150-dagers dødelighet. I følge denne forskningen, kan AI brukes til å flagge opp pasienter før de får kostbar cellegift. Tanken er at det kan være bedre å fordele den kostbare behandlingen andre steder.

Forskning på Global Markets, som har utført en studie på medisinske roboter, sa til ProPrivacy.com at "rapporter har antydet at kreftpasienter med alvorlig blødning har blitt anbefalt et medikament som kan føre til at blødningen forverres."

Ved en annen anledning ble en AI-algoritme designet for å forutsi hvilke pasienter med lungebetennelse trygt kunne utskrevet - bestemt feilaktig at pasienter med en historie med astma hadde lavere risiko for å dø. RGM fortalte oss:

“Dette var fordi det stemte fra treningsdataene, da pasienter med astma vanligvis gikk til ICU, fikk mer aggressiv pleie, og derfor var det mindre sannsynlig at de døde. Algoritmen forsto ikke dette og brukte regelen om at hvis noen hadde astma, de skulle bli behandlet som poliklinisk. "

Shailin Thomas, forskningsansvarlig ved Harvard University, bemerker at “selv de beste algoritmene vil føre til potensielt betydelig ansvar noen prosent av tiden.” Dette iboende potensialet for ansvar skaper et puslespill, fordi det er vanskelig å forstå nøyaktig hvem som skal holdes. ansvarlig for hva som til slutt er en garantert prosentandel av feil.

Karl Foster, juridisk direktør i Blake Morgan, sa til ProPrivacy.com at klinikere foreløpig vil være ansvarlige:

"Til syvende og sist er klinikere ansvarlige for pasientene sine; det er et overordnet prinsipp i medisinyrket. Bruk av AI vil neppe endre den posisjonen, absolutt på kort sikt ”

"Hvis vi ser for oss at AI avhører testresultater og bestemmer at et bestemt resultat øker risikoen for å utvikle en spesifikk medisinsk tilstand hos en pasient, til slutt - og for øyeblikket - er det for klinikeren å undersøke nærmere. Klinikeren vil fortsatt være ansvarlig for å tolke dataene som leveres av AI i lys av annen klinisk informasjon, og ta en beslutning om den beste behandlingen. "

Psykiater og dataforsker Carlo Carandang mener derimot at ansvar kan ligge hos produsenter:

"AI-apper vil bli behandlet som medisinsk utstyr, så ytelsen til slike kliniske AI-apper vil være ansvaret for selskapene som bygger dem, og FDA og andre reguleringsbyråer som fører tilsyn med slik medisinsk utstyr."

Forskning på Global Markets (RGM) fortalte ProPrivacy.com at selv om klinikere for øyeblikket ser ut til å forbli ansvarlige "i tilfelle skade blir forårsaket av feil innhold i stedet for feil bruk av en algoritme eller enhet, må ansvarlighet ligge hos dem som designet og deretter kvalitetssikret det. ”RGM bemerker at“ denne linjen kanskje ikke er så lett å definere. ”

Thomas er bekymret for at å holde firmaer ansvarlige kan føre til at de slutter å produsere algoritmene helt. Dette kan være ekstremt skadelig for medisinsk industri, fordi AI allerede beviser potensialet.

I Kina, for eksempel, brukte forskere en algoritme for å oppdage hjernesvulster mer vellykket enn landets beste leger. Disse typer gjennombrudd kan redde liv - men bare hvis firmaene som produserer AI kan gjøre det uten konstant ansvarsforhold..

Michael Carson, senior advokat ved Fletchers Solicitors mener at i Storbritannia er dagens lovgivning egnet til å håndtere fremveksten av medisinsk AI. Carson fortalte ProPrivacy.com at:

”Vi burde se på AI som bare et annet utstyr til sykehus. Eventuelle feil eller feildiagnostisering gjort av AI bør behandles som et medisinsk uaktsomhetspåstand, idet AI bare er et verktøy som brukes av sykehuset.

"Loven er sannsynligvis allerede robust nok til å håndtere problemer som skyldes AI-feil. I virkeligheten kan AI sees på som bare en blanding av utstyr og programvare, som allerede er utbredt i hele det nasjonale helsevesenet. ”

RGM bemerker imidlertid at gjeldende lovgivning kanskje ikke i tilstrekkelig grad skiller mellom "tilfeller der det er en feil i diagnosefeil i en teknologi" og tilfeller forårsaket av "bruk av unøyaktige eller upassende data."

På slutten av dagen kan AI bare handle på dataene den er gitt. Hvis disse dataene er uriktige eller partiske, før de sendes inn - er det vanskelig å forstå hvordan produsenter kan ha feil. På den annen side virker det vanskelig å skylde medisinsk fagpersonell for beslutninger som er tatt ut av hendene deres.

Foster sa til ProPrivacy.com at gjeldende reguleringsregimer i USA og Europa "foreløpig ikke forventer maskinlæring der programvaren eller datasettene er designet for å utvikle seg." Som et resultat vil spørsmål rundt ansvar sannsynligvis utvikle seg over tid og regulatorer vil trenge å forbli fleksibel for å endre.

Hvem som skal være ansvarlig for MLA er et komplekst problem, og det er allerede en viss uenighet. Én ting virker sikkert, på grunn av den hastigheten som medisinsk AI er på vei opp, må lovgivere være på vakt, og må handle raskt for å sikre at forskrifter er forberedt på å takle. For ofte, når nye teknologier dukker opp, treffer gjennombrudd markedet for tidlig, og lovgivere blir tvunget til å spille innhenting.

Et av de største problemene med AI er at klinikere ikke alltid forstår hvorfor MLAer tar beslutninger. Dette er fordi AI tar valg ved å bruke massive datasett som mennesker ikke kan behandle. RGM forklarer at på grunn av forbedrede suksessrater:

Leger kan finne seg feilaktig begrunnende beslutninger tatt av AI på grunn av et godt dokumentert konsept kjent som automatiseringsskjevhet. Her kan mennesker ha en tendens til å stole på en maskin mer enn de kan stole på seg selv. ”

Dette potensialet er ekstremt bekymringsfullt, spesielt når eksperter varsler at algoritmer kan komme forhåndsprogrammert med menneskelige skjevheter som kan forårsake feilbehandling.

Brayan Jackson
Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me