Chi dovrebbe essere responsabile degli errori medici causati dall’intelligenza artificiale?

Gli algoritmi di machine learning (MLA) analizzano enormi quantità di dati alla velocità della luce. I set di dati che una volta erano troppo grandi per essere valutati correttamente dagli umani possono ora essere sfruttati per prendere decisioni mediche salvavita. La domanda ardente è se AI debba essere autorizzato a fare queste scelte. E, in caso affermativo, in che modo influisce su medici, pazienti e quadri giuridici e normativi attuali?

Gli esperti del Health Ethics and Policy Lab di Zurigo, in Svizzera, sono solo un gruppo che inizia a suscitare allarme sull'uso dell'IA. Un documento pubblicato di recente esprime preoccupazione per il fatto che ai pazienti potrebbero essere negati trattamenti vitali a causa di pregiudizi all'interno degli MLA.

Il nocciolo del problema ruota attorno allo sviluppo di MLA. Il documento suggerisce che i sistemi automatizzati sono stati principalmente addestrati utilizzando i dati estratti da pazienti maschi caucasici. Questa "mancanza di diversità" può portare a pregiudizi che causano errori. Di conseguenza, i gruppi emarginati potrebbero finire per soffrire di più alti tassi di fallimento medico.

Un altro punto di pressione è creato dai pregiudizi umani esistenti all'interno degli "input neurali" sfruttati dagli MLA. Questi enormi set di dati creano il potenziale per l'IA di imitare o reprimere i pregiudizi umani esistenti.

I tipi di pregiudizi che potrebbero potenzialmente passare dagli esseri umani all'intelligenza artificiale includono pregiudizi verso l'alto indice di massa corporea (BMI), gruppi razziali o etnici e discriminazione di genere. Ciò è estremamente inquietante, poiché i ricercatori stanno già suggerendo che l'IA è in grado di rendere la vita e decisioni di morte.

Nel Regno Unito, i ricercatori hanno recentemente pubblicato uno studio in cui l'IA predisse correttamente la mortalità prematura meglio dei metodi tradizionali. I ricercatori ritengono che ciò potrebbe consentire agli algoritmi di utilizzare "fattori demografici, biometrici, clinici e di stile di vita" per individuare i pazienti che trarrebbero beneficio da un intervento precedente. Tuttavia, l'eventuale mancata individuazione dei pazienti a causa di pregiudizi ereditari potrebbe causare la sospensione del trattamento da determinati gruppi.

Un altro studio suggerisce che l'IA può identificare con successo i malati di cancro che sono ad alto rischio di mortalità a 30 o 150 giorni. Secondo tale ricerca, l'IA potrebbe essere utilizzata per segnalare i pazienti prima che ricevano la chemioterapia costosa. L'idea è che potrebbe essere meglio assegnare quel trattamento costoso altrove.

La ricerca sui mercati globali, che ha condotto uno studio sui robot medici, ha dichiarato a ProPrivacy.com che "i rapporti hanno suggerito che ai malati di cancro con sanguinamento grave è stato raccomandato un farmaco che potrebbe causare il peggioramento dell'emorragia".

In un'altra occasione, un algoritmo di intelligenza artificiale progettato per prevedere quali pazienti con polmonite potevano essere dimessi in modo sicuro - ha erroneamente deciso che i pazienti con una storia di asma avevano un minor rischio di morire. RGM ci ha detto:

"Questo perché era vero dai dati di allenamento, poiché i pazienti con asma di solito andavano in terapia intensiva, ricevevano cure più aggressive e quindi avevano meno probabilità di morire. L'algoritmo non lo capì e usò la regola secondo cui se qualcuno avesse l'asma dovrebbero essere trattati come ambulatoriali. "

Shailin Thomas, un ricercatore associato dell'Università di Harvard osserva che "anche i migliori algoritmi daranno luogo a una responsabilità potenzialmente sostanziale in una percentuale del tempo". Questo potenziale intrinseco di responsabilità crea un enigma, perché è difficile capire esattamente chi dovrebbe essere tenuto responsabile di ciò che è in definitiva una percentuale garantita di errori.

Karl Foster, direttore legale di Blake Morgan, ha dichiarato a ProPrivacy.com che, per il momento, i medici rimarranno responsabili:

“In definitiva, i medici sono responsabili dei loro pazienti; è un principio fondamentale della professione medica. È improbabile che l'uso dell'IA cambi tale posizione, certamente a breve termine "

"Se immaginiamo che l'IA interroghi i risultati dei test e determini che un determinato risultato aumenta il rischio di sviluppare una specifica condizione medica in un paziente, alla fine - e attualmente - spetta al medico indagare ulteriormente. Il medico rimarrà responsabile dell'interpretazione dei dati forniti dall'intelligenza artificiale alla luce di altre informazioni cliniche e della decisione sul miglior trattamento. "

Lo psichiatra e scienziato dei dati Carlo Carandang, d'altra parte, ritiene che la responsabilità potrebbe risiedere nei produttori:

"Le app AI verranno trattate come dispositivi medici, quindi le prestazioni di tali app cliniche AI ​​saranno sotto la responsabilità delle aziende che le costruiscono e della FDA e delle altre agenzie regolatorie che sovrintendono a tali dispositivi medici".

La ricerca sui mercati globali (RGM) ha detto a ProPrivacy.com che sebbene attualmente i clinici sembrino rimanere responsabili "in caso di danno causato da contenuti errati anziché dall'uso improprio di un algoritmo o dispositivo, la responsabilità deve spettare a coloro che hanno progettato e quindi la qualità lo ha assicurato. "RGM osserva che" questa linea potrebbe non essere così facile da definire ".

Thomas è preoccupato per il fatto che le società giudicatrici responsabili possano indurle a smettere di produrre gli algoritmi. Ciò potrebbe essere estremamente dannoso per l'industria medica, poiché l'IA sta già dimostrando il suo potenziale.

In Cina, ad esempio, i ricercatori hanno utilizzato un algoritmo per rilevare i tumori cerebrali con maggiore successo rispetto ai migliori medici della nazione. Questi tipi di scoperte possono salvare vite umane, ma solo se le aziende che producono intelligenza artificiale possono farlo senza costanti preoccupazioni di responsabilità.

Michael Carson, avvocato senior di Fletchers Solicitors, ritiene che nel Regno Unito l'attuale legislazione sia idonea a gestire l'emergenza dell'IA medica. Carson ha dichiarato a ProPrivacy.com che:

“Dovremmo considerare l'IA come un altro pezzo di attrezzatura ospedaliera. Eventuali errori o diagnosi errate commessi dall'intelligenza artificiale dovrebbero essere trattati come un reclamo per negligenza medica, con l'intelligenza artificiale semplicemente uno strumento utilizzato dall'ospedale.

“La legge è probabilmente già abbastanza solida da affrontare i problemi derivanti da malfunzionamenti dell'IA. In realtà, l'IA può essere vista solo come un'altra miscela di apparecchiature e software, che è già diffusa in tutto il Servizio sanitario nazionale. "

RGM, tuttavia, osserva che l'attuale legislazione potrebbe non distinguere sufficientemente tra "casi in cui si verifica un errore nel malfunzionamento diagnostico di una tecnologia" e casi causati da "l'uso di dati inesatti o inappropriati".

Alla fine della giornata, l'IA può agire solo sui dati forniti. Se tali dati sono errati o distorti, prima che vengano immessi - è difficile capire come i produttori possano essere in errore. D'altra parte, sembra difficile incolpare i professionisti medici per le decisioni prese dalle loro mani.

Foster ha dichiarato a ProPrivacy.com che gli attuali regimi normativi negli Stati Uniti e in Europa "non prevedono attualmente l'apprendimento automatico in cui il software o i set di dati sono progettati per evolversi". Di conseguenza, è probabile che le domande relative alla responsabilità si evolvano nel tempo e che i regolatori dovranno per rimanere flessibile al cambiamento.

Chi dovrebbe essere responsabile per gli MLA è un problema complesso e c'è già un disaccordo. Una cosa sembra certa, a causa della velocità con cui l'IA medica sta emergendo, i legislatori emergenti devono essere cauti e devono agire rapidamente per garantire che le normative siano pronte per far fronte. Troppo spesso, quando emergono nuove tecnologie, le innovazioni colpiscono prematuramente il mercato e i legislatori sono costretti a giocare al passo.

Uno dei maggiori problemi con l'IA è che i clinici non capiscono sempre perché le MLA stanno prendendo decisioni. Questo perché l'IA fa delle scelte usando enormi set di dati che gli umani non possono elaborare. RGM spiega che a causa delle migliori percentuali di successo:

“I medici potrebbero trovarsi a giustificare erroneamente le decisioni prese dall'IA a causa di un concetto ben documentato noto come pregiudizio dell'automazione. Qui, gli umani possono avere la tendenza a fidarsi di una macchina più di quanto potrebbero fidarsi di se stessi. "

Questo potenziale è estremamente preoccupante, specialmente quando gli esperti avvertono che gli algoritmi possono essere pre-programmati con pregiudizi umani che possono causare pratiche scorrette.

Brayan Jackson
Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me