L’IA sta mettendo a rischio i tuoi dati sanitari privati?

Un nuovo studio completato presso l'UC Berkeley ha rivelato che l'attuale quadro giuridico statunitense non è preparato a legiferare su come l'intelligenza artificiale incida sulla privacy digitale delle persone.


Lo studio si concentra su come l'IA è in grado di utilizzare vasti repository di dati al fine di identificare le persone e i loro dati sanitari personali. Secondo il ricercatore capo, Anil Aswani, l'IA può utilizzare i dati sui passi raccolti da tracker di attività, smartphone e smartwatch e confrontarli con i dati demografici al fine di identificare le persone.

Durante lo studio, i ricercatori di Berkeley hanno utilizzato i dati estratti da 15.000 individui statunitensi per dimostrare con successo che le leggi e le normative attuali non proteggono adeguatamente i dati sulla salute privata delle persone. La ricerca, pubblicata il 21 dicembre dello scorso anno sulla rivista JAMA Network Open, rivela che le norme sulla privacy stabilite nell'attuale legislazione sulla portabilità e la responsabilità dell'assicurazione sanitaria (HIPAA) hanno urgente bisogno di una nuova valutazione se i dati sanitari delle persone devono essere adeguatamente protetto.

AI che mette a rischio i tuoi dati sanitari

Ripartizione dei dati personali

Un risultato importante dello studio riguarda la riattribuzione di dati anonimi o pseudonimizzati. Secondo Aswani, la rimozione di tutte le informazioni identificative dai set di dati relativi alla salute non protegge adeguatamente le persone. Questo perché è possibile per le aziende utilizzare l'intelligenza artificiale per riattribuire dati precedentemente anonimizzati. Aswani spiega:

"Le normative HIPAA rendono la tua assistenza sanitaria privata, ma non coprono quanto pensi. Molti gruppi, come le società tecnologiche, non sono coperti dall'HIPAA e solo le informazioni molto specifiche non possono essere condivise dalle attuali norme HIPAA. Ci sono aziende che acquistano dati sanitari. Dovrebbero essere dati anonimi, ma il loro intero modello di business consiste nel trovare un modo per allegare nomi a questi dati e venderli."

Aswani ha descritto in che modo aziende come Facebook riescono a riunire i dati sensibili. Sfortunatamente, le attuali leggi statunitensi non impediscono alle aziende di riassegnare dati precedentemente cancellati, il che mette a rischio i dati sulla salute privata delle persone:

"In linea di principio, potresti immaginare che Facebook raccolga i dati dei passi dall'app sul tuo smartphone, quindi acquisti i dati sanitari da un'altra azienda e abbina i due. Ora avrebbero dati sanitari corrispondenti ai nomi e potrebbero iniziare a vendere pubblicità in base a ciò o potrebbero vendere i dati ad altri."

Le implicazioni sono ovvie, per le persone che lottano con potenziali problemi di salute questi dati sulla salute possono portare a discriminazioni. Tutti i dati sanitari che possono essere attribuiti con successo a un individuo possono essere utilizzati dagli assicuratori sanitari, ad esempio nel loro processo decisionale. Nel caso dei dati sui passi, uno stile di vita più sedentario (qualcosa che gli assicuratori sanitari non dovrebbero conoscere automaticamente) potrebbe portare a premi più elevati.

Facile accesso

Lo studio UC Berkeley dimostra che un aumento dell'efficacia dell'IA aumenterà notevolmente la capacità del settore privato di raccogliere dati relativi alla salute relativi agli individui. I ricercatori ritengono che ciò creerà inevitabilmente la tentazione per le aziende di utilizzare i dati in modo non etico o clandestino.

Man mano che l'IA migliora, le persone potrebbero trovare i loro dati sanitari contro di loro da parte di datori di lavoro, istituti di credito ipotecario, società di carte di credito e compagnie assicurative. La squadra di Aswani è preoccupata, perché ciò potrebbe portare a discriminazioni delle imprese in base a fattori come la gravidanza o la disabilità.

Discriminazione AI

Problema comune

Non è la prima volta che i dati anonimi o pseudonimizzati sono stati attribuiti con successo alle persone. Le ricerche condotte dal MIT nel 2015 hanno rivelato che i dati delle carte di credito precedentemente cancellati potevano essere riassegnati con successo.

Il MIT ha utilizzato i dati non identificati di 10.000 negozi contenenti i dettagli di 1,1 milioni di clienti con carta di credito. Secondo il ricercatore capo Yves-Alexandre de Montjoye, un individuo potrebbe essere individuato facilmente se specifici marcatori fossero scoperti con successo. Secondo il MIT, questi indicatori vitali potrebbero essere scoperti utilizzando dati provenienti da sole 3 o 4 transazioni.

La ricerca dimostra che i processi di pseudonimizzazione dei dati sono tutt'altro che infallibili. Ciò è preoccupante, perché anche nell'UE in cui il GDPR ha migliorato notevolmente i diritti alla privacy dei dati delle persone, la pseudonimizzazione dei dati è propagandata come metodo per le aziende di elaborare "categorie speciali" o dati sensibili senza violare la legge. I dati di categorie speciali includono dati genetici e dati relativi alla salute.

Sia il nuovo studio UC Berkeley che la precedente ricerca del MIT dimostrano che la pseudonimizzazione dei dati potrebbe non essere sufficiente per garantirli indefinitamente. Ciò significa che anche le fatture sulla privacy dei dati più lungimiranti potrebbero non proteggere adeguatamente i cittadini dagli attacchi di puzzle.

AI la legge

Sono necessari aggiornamenti legislativi

Aswani e il suo team di ricercatori hanno sollecitato il governo degli Stati Uniti a "rivisitare e rielaborare" la legislazione HIPPA esistente al fine di proteggere le persone dai pericoli creati dall'intelligenza artificiale. Sono necessarie nuove normative che proteggono i dati sanitari, ma i ricercatori di Berkeley sono preoccupati che i politici statunitensi sembrano andare nella direzione sbagliata:

"Idealmente, ciò che mi piacerebbe vedere da questo sono nuovi regolamenti o regole che proteggono i dati sanitari. Ma in realtà c'è una grande spinta per persino indebolire i regolamenti in questo momento. Ad esempio, il gruppo di regolamentazione per HIPAA ha richiesto commenti sull'aumento della condivisione dei dati. Il rischio è che se le persone non sono consapevoli di ciò che sta accadendo, le regole che abbiamo saranno indebolite. E, in realtà, i rischi che perdiamo il controllo della nostra privacy quando si tratta di assistenza sanitaria stanno effettivamente aumentando e non diminuendo."

Se questa storia ti ha spinto a riconsiderare la tua sicurezza online, perché non dai un'occhiata alla nostra pagina dei migliori servizi VPN per scoprire come rimanere online in sicurezza.

Crediti immagine: metamorworks / Shutterstock.com, cinque alberi / Shutterstock.com, miliardi di foto / Shutterstock.com.

Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me