Står AI dine private helsedata i fare?

En ny studie gjennomført ved UC Berkeley har avdekket at dagens amerikanske juridiske rammeverk er dårlig forberedt på å lovfeste om hvordan kunstig intelligens påvirker menneskers digitale personvern.


Studien fokuserer på hvordan AI er i stand til å bruke store lagringsplasser med data for å identifisere individer og deres personlige helsedata. I følge hovedforsker, Anil Aswani, kan AI bruke trinndata samlet inn fra aktivitetssporere, smarttelefoner og smartklokker, og krysse henvisning til demografiske data for å identifisere individer.

Under studien brukte forskere fra Berkeley data som ble utvunnet fra 15 000 amerikanske individer for å påvise at gjeldende lover og regler ikke beskytter folks private helsedata. Forskningen, som ble publisert 21. desember i fjor i JAMA Network Open-tidsskriftet, avslører at personvernstandarder som er fastsatt i gjeldende lov om helseforsikring og portabilitet og ansvarlighet (HIPAA), har et presserende behov for revurdering hvis folks helsedata skal være riktig beskyttet.

AI utsetter dataene dine for helse

Omfordeling av personopplysninger

Et stort funn fra studien innebærer omfordeling av anonymiserte eller pseudonymiserte data. Ifølge Aswani beskytter ikke all identifiserende informasjon fra helserelaterte datasett personer enkelt. Dette fordi det er mulig for firmaer å bruke AI til å dele ut data som tidligere var anonymisert. Aswani forklarer:

"HIPAA-forskrifter gjør helsevesenet ditt privat, men de dekker ikke så mye du tror. Mange grupper, som teknologiselskaper, dekkes ikke av HIPAA, og bare veldig spesifikke informasjonsstykker har ikke lov til å deles av gjeldende HIPAA-regler. Det er selskaper som kjøper helsedata. Det er ment å være anonyme data, men hele deres forretningsmodell er å finne en måte å knytte navn til disse dataene og selge dem."

Aswani har beskrevet hvordan firmaer som Facebook gjør det til deres virksomhet å sette sammen sensitive data sammen. Dessverre hindrer ikke gjeldende amerikanske lover firmaer i å omfordele tidligere skrubbet data, noe som setter menneskers private helseopplysninger i fare:

"I prinsippet kan du tenke deg at Facebook samler trinndata fra appen på smarttelefonen din, for deretter å kjøpe helseomsorgsdata fra et annet selskap og matche de to. Nå ville de ha helsehjelpsdata som samsvarer med navn, og de kan enten begynne å selge reklame basert på det, eller de kan selge dataene til andre."

Implikasjonene er åpenbare, for personer som sliter med potensielle helseproblemer, kan disse helsedataene føre til diskriminering. Alle helsedata som kan tilskrives en person, kan brukes av helseforsikringsselskaper, for eksempel i sin beslutningsprosess. Når det gjelder trinndata, kan en mer stillesittende livsstil (noe helseforsikringsselskaper ikke automatisk skal vite om) føre til høyere premier..

Lett tilgang

UC Berkeley-studien viser at en økning i effektiviteten til AI i stor grad vil øke den private sektors evne til å samle helserelaterte data om individer. Forskerne tror dette uunngåelig vil skape fristelsen for firmaer til å bruke dataene på uetiske eller hemmelige måter.

Når AI forbedres, kunne enkeltpersoner finne at helsedataene deres ble vendt mot dem av arbeidsgivere, pantelångivere, kredittkortselskaper og forsikringsselskaper. Aswanis team er urolige - fordi dette kan føre til at firmaer diskriminerer etter faktorer som graviditet eller funksjonshemming.

AI-diskriminering

Vanlig problem

Dette er ikke første gang anonymiserte eller pseudonymiserte data er blitt tilskrevet enkeltpersoner. Forskning utført av MIT i 2015 avslørte at tidligere skrubbet kredittkortsdata med fordel kunne fordeles på nytt.

MIT brukte avidentifiserte data fra 10.000 butikker som inneholder detaljene til 1,1 millioner kredittkortkunder. I følge hovedforsker Yves-Alexandre de Montjoye, kunne en enkelt enkelt bli utpekt dersom spesifikke markører ble avdekket. I følge MIT kunne disse viktige markørene bli oppdaget ved hjelp av data fra så få som 3 eller 4 transaksjoner.

Forskningen viser at pseudonymiseringsprosesser for data langt fra er idiotsikre. Dette gjelder, for selv i EU hvor GDPR massivt har forbedret folks rettigheter til personvern til data - er pseudonymisering av data spionert som en metode for firmaer å behandle "spesiell kategori" eller sensitive data uten å bryte loven. Spesielle kategoridata inkluderer genetiske data og data angående helse.

Både den nye UC Berkeley-studien og den forrige MIT-undersøkelsen, viser at pseudonymisering av data kanskje ikke er nok til å sikre det på ubestemt tid. Dette betyr at selv de mest fremtidsrettede personvernregningene for data kanskje ikke i tilstrekkelig grad beskytter innbyggerne mot stikksagangrep.

AI loven

Lovoppdateringer er nødvendige

Aswani og hans forskerteam har oppfordret den amerikanske regjeringen til å "revidere og omarbeide" eksisterende HIPPA-lovgivning for å beskytte mennesker mot farene som er skapt av AI. Nye forskrifter som beskytter helsedata er nødvendige, men Berkeley-forskerne er bekymret for at amerikanske politikere ser ut til å gå i feil retning:

"Det ideelle jeg vil se fra dette er nye forskrifter eller regler som beskytter helsedata. Men det er faktisk et stort press for å til og med svekke regelverket akkurat nå. For eksempel har regelgivende gruppe for HIPAA bedt om kommentarer om økt datadeling. Risikoen er at hvis folk ikke er klar over hva som skjer, vil reglene vi har bli svekket. Og faktum er at risikoen for at vi mister kontrollen over personvernet vårt når det gjelder helsehjelp, øker og minsker ikke."

Hvis denne historien har fått deg til å vurdere din egen online sikkerhet, hvorfor ikke ta en titt på vår beste VPN-tjenesteside for måter du kan være sikker på nettet.

Bildekreditt: metamorworks / Shutterstock.com, fem trær / Shutterstock.com, Billion Photos / Shutterstock.com.

Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me