Wie is aansprakelijk voor medische fouten veroorzaakt door AI?

Machine Learning Algorithms (MLA's) analyseren enorme hoeveelheden gegevens razendsnel. Gegevenssets die ooit te groot waren voor mensen om goed te evalueren, kunnen nu worden gebruikt om levensreddende medische beslissingen te nemen. De brandende vraag is of AI die keuzes mag maken. En, zo ja, hoe beïnvloedt dit artsen, patiënten en de huidige wettelijke en regelgevende kaders?


Experts van het Health Ethics and Policy Lab in Zürich, Zwitserland, zijn slechts één groep die alarm begint te slaan over het gebruik van AI. Een recent gepubliceerd artikel spreekt zijn bezorgdheid uit over het feit dat patiënten vitale behandelingen kunnen worden ontzegd vanwege vooroordelen binnen MLA's.

De kern van het probleem draait om hoe MLA's worden ontwikkeld. Het artikel suggereert dat geautomatiseerde systemen voornamelijk zijn getraind op basis van gegevens van mannelijke blanke patiënten. Dit 'gebrek aan diversiteit' kan leiden tot vooroordelen die fouten veroorzaken. Als gevolg hiervan kunnen gemarginaliseerde groepen te maken krijgen met hogere percentages medisch falen.

Een ander drukpunt wordt gecreëerd door bestaande menselijke vooroordelen binnen de "neurale inputs" die door MLA's worden geëxploiteerd. Die enorme datasets creëren het potentieel voor AI om bestaande menselijke vooroordelen na te bootsen of opnieuw uit te drukken.

De soorten vooroordelen die mogelijk van mens op AI kunnen overgaan, omvatten vooroordelen over een hoge Body Mass Index (BMI), raciale of etnische groepen en genderdiscriminatie. Dit is zeer verontrustend, omdat onderzoekers al suggereren dat AI in staat is om leven te maken en dood beslissingen.

In het VK publiceerden onderzoekers onlangs een studie waarin AI voortijdige sterfte correct beter voorspelde dan traditionele methoden. Onderzoekers geloven dat dit algoritmen in staat zou kunnen stellen om gebruik te maken van "demografische, biometrische, klinische en leefstijlfactoren" om patiënten te selecteren die baat zouden hebben bij eerdere interventie. Als patiënten echter niet worden vastgesteld vanwege erfelijke vooroordelen, kan de behandeling van bepaalde groepen worden onthouden.

Een andere studie suggereert dat AI met succes kankerpatiënten kan identificeren die een hoog risico lopen op een sterfte van 30 dagen of 150 dagen. Volgens dat onderzoek zou AI kunnen worden gebruikt om patiënten te markeren voordat ze dure chemotherapie krijgen. Het idee is dat het misschien beter is om die dure behandeling elders toe te wijzen.

Onderzoek naar wereldwijde markten, dat een onderzoek naar medische robots heeft uitgevoerd, vertelde ProPrivacy.com dat "rapporten hebben gesuggereerd dat kankerpatiënten met ernstige bloedingen een medicijn zijn aanbevolen dat de bloeding kan verergeren."

Bij een andere gelegenheid, een AI-algoritme ontworpen om te voorspellen welke patiënten met longontsteking veilig konden worden ontslagen - ten onrechte besloten dat patiënten met een voorgeschiedenis van astma een lager risico hadden om te sterven. RGM vertelde ons:

“Dit was omdat het waar was uit de trainingsgegevens, omdat patiënten met astma meestal naar de IC gingen, agressievere zorg ontvingen en dus minder kans hadden om te overlijden. Het algoritme begreep dit niet en gebruikte de regel dat als iemand astma had, deze als poliklinisch moest worden behandeld. '

Shailin Thomas, een onderzoeksmedewerker aan de Harvard University, merkt op dat "zelfs de beste algoritmen een bepaald percentage van de tijd tot potentieel substantiële aansprakelijkheid kunnen leiden." Dit inherente potentieel voor aansprakelijkheid creëert een puzzel, omdat het moeilijk te begrijpen is wie precies moet worden vastgehouden verantwoordelijk voor wat uiteindelijk een gegarandeerd percentage fouten is.

Karl Foster, juridisch directeur van Blake Morgan, vertelde ProPrivacy.com dat clinici voorlopig aansprakelijk blijven:

“Uiteindelijk zijn clinici verantwoordelijk voor hun patiënten; het is een dwingend principe van het medische beroep. Gebruik van AI zal deze positie waarschijnlijk niet veranderen, zeker op de korte termijn ”

“Als we ons voorstellen dat AI testresultaten ondervraagt ​​en bepaalt dat een bepaald resultaat het risico op het ontwikkelen van een specifieke medische aandoening bij een patiënt verhoogt, is het uiteindelijk aan de clinicus om verder te onderzoeken. De clinicus blijft verantwoordelijk voor het interpreteren van de door AI verstrekte gegevens in het licht van andere klinische informatie en het nemen van een beslissing over de beste behandeling. "

Psychiater en datawetenschapper Carlo Carandang daarentegen is van mening dat de aansprakelijkheid bij fabrikanten kan liggen:

"AI-apps worden behandeld als medische hulpmiddelen, dus de prestaties van dergelijke klinische AI-apps vallen onder de verantwoordelijkheid van de bedrijven die ze bouwen, en de FDA en andere regelgevende instanties die toezicht houden op dergelijke medische hulpmiddelen."

Onderzoek naar wereldwijde markten (RGM) vertelde ProPrivacy.com dat hoewel artsen momenteel aansprakelijk lijken te blijven “in het geval van schade veroorzaakt door onjuiste inhoud in plaats van oneigenlijk gebruik van een algoritme of apparaat, de verantwoordelijkheid moet liggen bij degenen die ontworpen en dan is kwaliteit verzekerd. ”RGM merkt op dat“ deze lijn misschien niet zo eenvoudig te definiëren is. ”

Thomas is bezorgd dat het verantwoordelijk houden van bedrijven ertoe kan leiden dat ze stoppen met het produceren van de algoritmen. Dit kan uiterst schadelijk zijn voor de medische industrie, omdat AI zijn potentieel al bewijst.

In China, bijvoorbeeld, gebruikten onderzoekers een algoritme om hersentumoren succesvoller te detecteren dan de beste artsen van het land. Dit soort doorbraken kunnen levens redden - maar alleen als de bedrijven die AI produceren dit kunnen doen zonder constante zorgen over aansprakelijkheid.

Michael Carson, senior advocaat bij Fletchers Solicitors gelooft dat de huidige wetgeving in het VK geschikt is om de opkomst van medische AI ​​aan te kunnen. Carson vertelde ProPrivacy.com dat:

“We moeten AI zien als gewoon een ander stuk ziekenhuisapparatuur. Alle fouten of verkeerde diagnoses door de AI moeten worden behandeld als een medische nalatigheidsclaim, waarbij de AI slechts een hulpmiddel is dat door het ziekenhuis wordt gebruikt.

“De wet is waarschijnlijk al robuust genoeg om problemen met AI-storingen aan te pakken. In werkelijkheid kan AI worden gezien als gewoon een combinatie van apparatuur en software, die al overal in de National Health Service voorkomt. "

RGM merkt echter op dat de huidige wetgeving mogelijk onvoldoende onderscheid maakt tussen "gevallen waarin er een fout is in de diagnose van een technologie" en gevallen die worden veroorzaakt door "het gebruik van onjuiste of ongepaste gegevens."

Aan het einde van de dag kan AI alleen reageren op de gegevens die worden gegeven. Als die gegevens onjuist of bevooroordeeld zijn, voordat ze worden ingevoerd, is het moeilijk te begrijpen hoe fabrikanten de fout kunnen begaan. Aan de andere kant lijkt het moeilijk om medische professionals de schuld te geven voor beslissingen die uit hun handen zijn genomen.

Foster vertelde ProPrivacy.com dat de huidige regelgevende regimes in de VS en Europa momenteel niet anticiperen op machine learning waar de software of gegevenssets zijn ontworpen om te evolueren. Als gevolg hiervan zullen vragen over aansprakelijkheid waarschijnlijk in de loop van de tijd evolueren en moeten regelgevers flexibel blijven om te veranderen.

Wie aansprakelijk moet zijn voor MLA's is een complexe kwestie, en er is al enige onenigheid. Eén ding lijkt zeker, vanwege de snelheid waarmee medische AI ​​in opkomst is, moeten wetgevers op hun hoede zijn en moeten snel handelen om ervoor te zorgen dat regelgeving bereid is het hoofd te bieden. Te vaak, wanneer nieuwe technologieën opduiken, raken doorbraken de markt voortijdig en moeten wetgevers inhalen.

Een van de grootste problemen met AI is dat clinici niet altijd begrijpen waarom MLA's beslissingen nemen. Dit komt omdat AI keuzes maakt met behulp van enorme gegevenssets die mensen niet kunnen verwerken. RGM legt uit dat als gevolg van verbeterde slagingspercentages:

“Artsen kunnen zichzelf ten onrechte de beslissingen van AI rechtvaardigen vanwege een goed gedocumenteerd concept dat automatisering bias wordt genoemd. Hier kunnen mensen de neiging hebben om een ​​machine meer te vertrouwen dan ze zichzelf zouden kunnen vertrouwen. ”

Dit potentieel is buitengewoon zorgwekkend, vooral wanneer experts waarschuwen dat algoritmen voorgeprogrammeerd kunnen komen met menselijke vooroordelen die misstanden kunnen veroorzaken.

Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me