Säkrar AI dina privata hälsodata?

En ny studie som genomförts vid UC Berkeley har avslöjat att den nuvarande amerikanska rättsliga ramen är dåligt beredd att lagstifta om hur Artificial Intelligence påverkar människors digitala integritet.


Studien fokuserar på hur AI kan använda stora databaser för att identifiera individer och deras personliga hälsodata. Enligt ledande forskare, Anil Aswani, kan AI använda stegdata som samlas in från aktivitetsspårare, smartphones och smartwatches och korsreferera det mot demografiska data för att identifiera individer.

Under studien använde Berkeley-forskare data som utvinns från 15 000 amerikanska individer för att framgångsrikt visa att gällande lagar och förordningar inte tillräckligt skyddar människors privata hälsodata. Forskningen, som publicerades 21 december förra året i JAMA Network Open-tidskriften, avslöjar att integritetsstandarder som fastställs i den nuvarande lagstiftningen om hälsoförsäkringsportabilitet (HIPAA) är i brådskande behov av omprövning om människors hälsodata ska vara korrekt skyddad.

AI sätter din datahälsodata i fara

Återfördelning av personuppgifter

En viktig upptäckt från studien innefattar omfördelning av anonymiserade eller pseudonymiserade data. Enligt Aswani skyddar inte all identifierande information från hälsorelaterade datasätt korrekt individer. Detta beror på att det är möjligt för företag att använda AI för att återfördela data som tidigare var anonymiserade. Aswani förklarar:

"HIPAA-föreskrifter gör din hälsovård privat, men de täcker inte så mycket som du tror. Många grupper, som teknikföretag, omfattas inte av HIPAA, och endast mycket specifika informationsdelar får inte delas med nuvarande HIPAA-regler. Det finns företag som köper hälsodata. Det är tänkt att vara anonym data, men hela deras affärsmodell är att hitta ett sätt att bifoga namn till denna information och sälja dem."

Aswani har beskrivit hur företag som Facebook gör det till deras verksamhet att sätta tillbaka känslig information. Tyvärr hindrar de nuvarande amerikanska lagarna inte företagen från att återfördela tidigare skurade data, vilket riskerar människors privata hälsodata:

"I princip kan du föreställa dig att Facebook samlar stegdata från appen på din smartphone och sedan köper hälsovårdsdata från ett annat företag och matchar de två. Nu skulle de ha hälsovårdsdata som matchas med namn, och de kan antingen börja sälja reklam baserat på det eller så kan de sälja uppgifterna till andra."

Konsekvenserna är uppenbara, för människor som kämpar med potentiella hälsoproblem kan dessa hälsodata leda till diskriminering. All hälsodata som framgångsrikt kan tillskrivas en individ kan användas av sjukförsäkringsbolag, till exempel i sin beslutsprocess. När det gäller stegdata kan en mer stillasittande livsstil (något som sjukförsäkringsföretag inte automatiskt borde veta om) leda till högre premier.

Lätt tillgång

UC Berkeley-studien visar att en ökning av effekten av AI kraftigt kommer att öka den privata sektorns förmåga att samla in hälsorelaterade uppgifter om individer. Forskarna tror att detta oundvikligen kommer att skapa frestelsen för företag att använda uppgifterna på oetiska eller hemliga sätt.

När AI förbättras kunde individer hitta att deras hälsodata vändes mot dem av arbetsgivare, hypotekslångivare, kreditkortsföretag och försäkringsbolag. Aswanis team är oroliga - eftersom det kan leda till att företag diskriminerar beroende på faktorer som graviditet eller funktionshinder.

AI-diskriminering

Vanligt problem

Detta är inte första gången anonymiserade eller pseudonyma data framgångsrikt tillskrivs individer. Forskning utförd av MIT 2015 avslöjade att tidigare skurade kreditkortsdata framgångsrikt kunde delas ut.

MIT använde avidentifierade data från 10 000 butiker som innehöll uppgifter om 1,1 miljoner kreditkortskunder. Enligt huvudforskaren Yves-Alexandre de Montjoye skulle en individ enkelt kunna utelämnas om specifika markörer framgångsrikt avslöjades. Enligt MIT kunde dessa viktiga markörer upptäckas med data från så få som 3 eller 4 transaktioner.

Forskningen visar att datapseudonymiseringsprocesser är långt ifrån idiotsäkra. Detta gäller, för även i EU där GDPR massivt har förbättrat folks rättigheter till datapersonlighet - pseudonymisering av data utropas som en metod för företag att bearbeta "specialkategori" eller känslig information utan att bryta lagen. Speciella kategoridata inkluderar genetiska data och hälsodata.

Både den nya UC Berkeley-studien och den tidigare MIT-forskningen visar att pseudonymisering av data kanske inte är tillräckligt för att säkra det på obestämd tid. Detta innebär att även de mest framtidsinriktade räkenskaperna för integritetsskydd kanske inte tillräckligt skyddar medborgarna mot pusselattacker.

AI lagen

Lagliga uppdateringar behövs

Aswani och hans forskargrupp har uppmanat den amerikanska regeringen att ”se över och omarbeta” befintlig HIPPA-lagstiftning för att skydda människor mot farorna som skapas av AI. Nya föreskrifter som skyddar hälsodata behövs, men Berkeley-forskarna är oroliga för att amerikanska beslutsfattare verkar gå i fel riktning:

"Det idealiska, vad jag skulle vilja se av detta är nya förordningar eller regler som skyddar hälsodata. Men det finns faktiskt ett stort tryck för att till och med försvaga reglerna just nu. Till exempel har regelbildningsgruppen för HIPAA begärt kommentarer om ökad datadelning. Risken är att om människor inte är medvetna om vad som händer kommer de regler vi har försvagas. Och faktum är att riskerna för att vi tappar kontrollen över vår integritet när det gäller vård ökar och minskar inte."

Om den här berättelsen har fått dig att ompröva din egen online-säkerhet, varför inte ta en titt på vår bästa sida om VPN-tjänster för hur du kan hålla dig säker online.

Bildkrediter: metamorworks / Shutterstock.com, fem träd / Shutterstock.com, Billion Photos / Shutterstock.com.

Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me