Brengt AI uw persoonlijke gezondheidsgegevens in gevaar?

Een nieuwe studie afgerond aan UC Berkeley heeft aangetoond dat het huidige Amerikaanse wettelijke kader slecht voorbereid is om wetgeving vast te stellen over hoe kunstmatige intelligentie de digitale privacy van mensen beïnvloedt.

Het onderzoek richt zich op hoe AI in staat is om enorme gegevensbanken te gebruiken om individuen en hun persoonlijke gezondheidsgegevens te identificeren. Volgens hoofdonderzoeker, Anil Aswani, kan AI stapgegevens gebruiken die zijn verzameld van activity trackers, smartphones en smartwatches en deze vergelijken met demografische gegevens om individuen te identificeren.

Tijdens het onderzoek gebruikten Berkeley-onderzoekers gegevens van 15.000 Amerikaanse individuen om met succes aan te tonen dat de huidige wet- en regelgeving de privégegevens van mensen onvoldoende beschermt. Het onderzoek, dat vorig jaar op 21 december werd gepubliceerd in het JAMA Network Open-tijdschrift, onthult dat privacynormen die zijn vastgelegd in de huidige wet op de ziekteverzekeringsportabiliteit en verantwoordingsplicht (HIPAA) dringend behoefte hebben aan een nieuwe beoordeling als de gezondheidsgegevens van mensen moeten worden goed beschermd.

AI brengt uw gegevens over gezondheidsgegevens in gevaar

Toewijzing van persoonlijke gegevens

Een belangrijke bevinding uit het onderzoek betreft de hertoewijzing van geanonimiseerde of gepseudonimiseerde gegevens. Volgens Aswani beschermt het strippen van alle identificerende informatie uit gezondheidsgerelateerde datasets individuen niet goed. Dit komt omdat bedrijven AI kunnen gebruiken om gegevens die eerder geanonimiseerd waren, opnieuw toe te wijzen. Aswani legt uit:

"HIPAA-voorschriften maken uw gezondheidszorg privé, maar ze dekken niet zoveel als u denkt. Veel groepen, zoals technologiebedrijven, vallen niet onder de HIPAA en alleen zeer specifieke stukjes informatie mogen niet worden gedeeld door de huidige HIPAA-regels. Er zijn bedrijven die gezondheidsgegevens kopen. Het zijn anonieme gegevens, maar hun hele bedrijfsmodel is om een ​​manier te vinden om namen aan deze gegevens te koppelen en te verkopen."

Aswani heeft beschreven hoe bedrijven als Facebook het hun zaak maken om gevoelige gegevens weer samen te brengen. Helaas weerhoudt de huidige Amerikaanse wetgeving bedrijven er niet van om eerder geschoonde gegevens opnieuw toe te wijzen, waardoor de persoonlijke gezondheidsgegevens van mensen in gevaar komen:

"Je zou je in principe kunnen voorstellen dat Facebook stapgegevens van de app op je smartphone verzamelt en vervolgens zorggegevens van een ander bedrijf koopt en de twee vergelijkt. Nu zouden ze gezondheidszorggegevens hebben die zijn gekoppeld aan namen, en ze konden ofwel beginnen met het verkopen van advertenties op basis daarvan of ze zouden de gegevens aan anderen kunnen verkopen."

De implicaties zijn duidelijk, voor mensen die kampen met mogelijke gezondheidsproblemen kunnen deze gezondheidsgegevens leiden tot discriminatie. Alle gezondheidsgegevens die met succes aan een persoon kunnen worden toegeschreven, kunnen door zorgverzekeraars worden gebruikt, bijvoorbeeld in hun besluitvormingsproces. In het geval van stapgegevens kan een meer zittende levensstijl (iets dat zorgverzekeraars niet automatisch moeten weten) leiden tot hogere premies.

Makkelijke toegang

Het onderzoek van UC Berkeley toont aan dat een toename van de effectiviteit van AI het vermogen van de particuliere sector om gezondheidsgerelateerde gegevens over individuen te verzamelen, aanzienlijk zal vergroten. De onderzoekers geloven dat dit onvermijdelijk de verleiding zal creëren voor bedrijven om de gegevens op onethische of clandestiene manieren te gebruiken.

Naarmate AI verbetert, kunnen personen vinden dat hun gezondheidsgegevens tegen hen worden gekeerd door werkgevers, hypotheekverstrekkers, creditcardmaatschappijen en verzekeringsmaatschappijen. Het team van Aswani heeft problemen - omdat dit ertoe kan leiden dat bedrijven discrimineren op basis van factoren zoals zwangerschap of handicap.

AI-discriminatie

Vaak voorkomend probleem

Dit is niet de eerste keer dat geanonimiseerde of gepseudonimiseerde gegevens met succes worden toegeschreven aan personen. Uit onderzoek van MIT in 2015 bleek dat eerder geschraapte creditcardgegevens met succes opnieuw konden worden toegewezen.

MIT gebruikte niet-geïdentificeerde gegevens van 10.000 winkels met de gegevens van 1,1 miljoen creditcardklanten. Volgens hoofdonderzoeker Yves-Alexandre de Montjoye kan een individu gemakkelijk worden uitgekozen als specifieke markers met succes worden ontdekt. Volgens MIT konden deze vitale markers worden ontdekt met behulp van gegevens van slechts 3 of 4 transacties.

Het onderzoek toont aan dat data-pseudonimisatieprocessen verre van onfeilbaar zijn. Dit is zorgwekkend, want zelfs in de EU, waar GDPR de gegevensprivacyrechten van mensen enorm heeft verbeterd, wordt gegevenspseudonimisering aangeprezen als een methode voor bedrijven om "speciale categorieën" of gevoelige gegevens te verwerken zonder de wet te overtreden. Speciale categoriegegevens omvatten genetische gegevens en gegevens met betrekking tot gezondheid.

Zowel het nieuwe UC Berkeley-onderzoek als het vorige MIT-onderzoek tonen aan dat de pseudonimisering van gegevens mogelijk niet voldoende is om deze voor onbepaalde tijd te beveiligen. Dit betekent dat zelfs de meest vooruitstrevende rekeningen voor gegevensprivacy burgers mogelijk niet voldoende beschermen tegen legpuzzelaanvallen.

AI de wet

Wettelijke updates nodig

Aswani en zijn team van onderzoekers hebben er bij de Amerikaanse regering op aangedrongen de bestaande HIPPA-wetgeving te "herzien en opnieuw te bewerken" om mensen te beschermen tegen de gevaren van AI. Er zijn nieuwe regels nodig die gezondheidsgegevens beschermen, maar de onderzoekers van Berkeley zijn bezorgd dat Amerikaanse beleidsmakers de verkeerde kant op lijken te gaan:

"In het ideale geval zou ik hier graag nieuwe regels of regels voor zien die gezondheidsgegevens beschermen. Maar er is eigenlijk een grote druk om de regelgeving nu zelfs te verzwakken. De groep voor het maken van regels voor HIPAA heeft bijvoorbeeld om opmerkingen gevraagd over het vergroten van het delen van gegevens. Het risico is dat als mensen zich niet bewust zijn van wat er gebeurt, de regels die we hebben worden verzwakt. En het feit is dat de risico's dat we de controle over onze privacy verliezen als het gaat om gezondheidszorg, in feite toenemen en niet afnemen."

Als dit verhaal u ertoe heeft gebracht uw eigen online beveiliging te heroverwegen, kijk dan eens op onze beste VPN-dienstenpagina voor manieren om online veilig te blijven.

Afbeelding credits: metamorworks / Shutterstock.com, vijf bomen / Shutterstock.com, miljard foto's / Shutterstock.com.

Brayan Jackson
Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me