Gefährdet KI Ihre privaten Gesundheitsdaten?

Eine neue Studie an der UC Berkeley hat ergeben, dass der derzeitige US-amerikanische Rechtsrahmen nicht in der Lage ist, Gesetze darüber zu erlassen, wie sich künstliche Intelligenz auf die digitale Privatsphäre von Menschen auswirkt.

Die Studie befasst sich mit der Frage, wie KI umfangreiche Datenbestände nutzen kann, um Personen und ihre persönlichen Gesundheitsdaten zu identifizieren. Laut dem leitenden Forscher Anil Aswani kann AI die von Aktivitäts-Trackern, Smartphones und Smartwatches erfassten Schrittdaten verwenden und mit demografischen Daten vergleichen, um Personen zu identifizieren.

Während der Studie verwendeten Berkeley-Forscher Daten von 15.000 US-Personen, um erfolgreich nachzuweisen, dass die aktuellen Gesetze und Vorschriften die privaten Gesundheitsdaten der Menschen nicht angemessen schützen. Die Studie, die am 21. Dezember letzten Jahres im JAMA Network Open Journal veröffentlicht wurde, zeigt, dass Datenschutzstandards, die im aktuellen Gesetz zur Portabilität und Rechenschaftspflicht von Krankenversicherungen (HIPAA) festgelegt sind, dringend einer Neubewertung bedürfen, wenn die Gesundheitsdaten der Menschen vorliegen sollen richtig geschützt.

AI gefährdet Ihre Datengesundheitsdaten

Neuzuordnung personenbezogener Daten

Ein wichtiges Ergebnis der Studie ist die Neuzuordnung anonymisierter oder pseudonymisierter Daten. Laut Aswani schützt das Entfernen aller identifizierenden Informationen aus gesundheitsbezogenen Datensätzen Einzelpersonen nicht richtig. Dies liegt daran, dass Unternehmen AI verwenden können, um zuvor anonymisierte Daten erneut zuzuordnen. Assuanisch erklärt:

"HIPAA-Bestimmungen machen Ihre Gesundheitsversorgung privat, aber sie decken nicht so viel ab, wie Sie denken. Viele Gruppen, wie Tech-Unternehmen, werden von HIPAA nicht erfasst, und nur sehr spezifische Informationen dürfen von den aktuellen HIPAA-Regeln nicht weitergegeben werden. Es gibt Unternehmen, die Gesundheitsdaten kaufen. Es sollen anonyme Daten sein, aber ihr gesamtes Geschäftsmodell besteht darin, einen Weg zu finden, diesen Daten Namen zu geben und sie zu verkaufen."

Aswani hat beschrieben, wie Unternehmen wie Facebook es sich zur Aufgabe machen, vertrauliche Daten wieder zusammenzufügen. Leider hindern die aktuellen US-Gesetze Unternehmen nicht daran, zuvor bereinigte Daten erneut zuzuordnen, was die privaten Gesundheitsdaten der Menschen gefährdet:

"Grundsätzlich können Sie sich vorstellen, dass Facebook Schrittdaten von der App auf Ihrem Smartphone sammelt, dann Gesundheitsdaten von einem anderen Unternehmen kauft und beide zusammenbringt. Jetzt würden sie Gesundheitsdaten haben, die mit Namen übereinstimmen, und sie könnten entweder damit beginnen, Werbung auf dieser Basis zu verkaufen, oder sie könnten die Daten an andere verkaufen."

Die Implikationen sind offensichtlich, für Menschen, die mit potenziellen Gesundheitsproblemen zu kämpfen haben, können diese Gesundheitsdaten zu Diskriminierung führen. Alle Gesundheitsdaten, die einer Person erfolgreich zugeordnet werden können, können von den Krankenversicherern beispielsweise in ihrem Entscheidungsprozess verwendet werden. Bei Step-Daten könnte ein sitzenderer Lebensstil (etwas, das die Krankenversicherer nicht automatisch wissen sollten) zu höheren Prämien führen.

Einfacher Zugriff

Die Studie von UC Berkeley zeigt, dass ein Anstieg der Wirksamkeit von KI die Fähigkeit des Privatsektors, gesundheitsbezogene Daten über Einzelpersonen zu sammeln, erheblich verbessern wird. Die Forscher glauben, dass dies unweigerlich die Versuchung für Unternehmen hervorruft, die Daten auf unethische oder verborgene Weise zu verwenden.

Wenn sich die KI verbessert, könnten Einzelpersonen feststellen, dass ihre Gesundheitsdaten von Arbeitgebern, Hypothekengebern, Kreditkartenunternehmen und Versicherungsunternehmen gegen sie ausgetauscht werden. Aswanis Team ist besorgt - weil dies dazu führen könnte, dass Unternehmen aufgrund von Faktoren wie Schwangerschaft oder Behinderung diskriminiert werden.

AI Diskriminierung

Häufiges Problem

Dies ist nicht das erste Mal, dass anonymisierte oder pseudonymisierte Daten erfolgreich Personen zugeordnet wurden. Untersuchungen des MIT aus dem Jahr 2015 ergaben, dass zuvor bereinigte Kreditkartendaten erfolgreich neu zugeordnet werden konnten.

Das MIT verwendete nicht identifizierte Daten aus 10.000 Geschäften, die die Details von 1,1 Millionen Kreditkartenkunden enthielten. Laut dem leitenden Forscher Yves-Alexandre de Montjoye könnte eine Person leicht herausgegriffen werden, wenn bestimmte Marker erfolgreich aufgedeckt würden. Laut MIT konnten diese lebenswichtigen Marker mit Daten von nur 3 oder 4 Transaktionen entdeckt werden.

Die Studie zeigt, dass Datenpseudonymisierungsprozesse alles andere als narrensicher sind. Dies ist insofern von Bedeutung, als auch in der EU, in der die DSGVO die Datenschutzrechte der Menschen massiv verbessert hat, die Pseudonymisierung von Daten als Methode angepriesen wird, mit der Unternehmen „Sonderkategorien“ oder sensible Daten ohne Verstoß gegen das Gesetz verarbeiten können. Spezielle Kategoriedaten umfassen genetische Daten und Daten zur Gesundheit.

Sowohl die neue UC Berkeley-Studie als auch die frühere MIT-Studie zeigen, dass die Pseudonymisierung von Daten möglicherweise nicht ausreicht, um sie auf unbestimmte Zeit zu sichern. Dies bedeutet, dass selbst die zukunftsorientiertesten Datenschutzgesetze die Bürger möglicherweise nicht ausreichend vor Stichsägen schützen.

Ich bin das Gesetz

Legislative Updates erforderlich

Aswani und sein Forscherteam haben die US-Regierung aufgefordert, die bestehenden HIPPA-Gesetze zu überarbeiten, um die Menschen vor den durch KI verursachten Gefahren zu schützen. Neue Vorschriften zum Schutz von Gesundheitsdaten sind erforderlich, doch die Berkeley-Forscher befürchten, dass die US-Politik in die falsche Richtung geht:

"Im Idealfall würde ich gerne neue Vorschriften oder Regeln zum Schutz von Gesundheitsdaten sehen. Tatsächlich gibt es jedoch einen großen Druck, die Vorschriften derzeit noch zu schwächen. Zum Beispiel hat die Regelbildungsgruppe für HIPAA um Kommentare zur Erhöhung des Datenaustauschs gebeten. Das Risiko ist, dass wenn die Leute nicht wissen, was passiert, die Regeln, die wir haben, geschwächt werden. Tatsache ist, dass die Risiken, dass wir die Kontrolle über unsere Privatsphäre verlieren, in Bezug auf die Gesundheitsfürsorge tatsächlich zunehmen und nicht abnehmen."

Wenn diese Geschichte Sie dazu veranlasst hat, Ihre eigene Online-Sicherheit zu überdenken, werfen Sie einen Blick auf unsere Seite mit den besten VPN-Diensten, um herauszufinden, wie Sie online sicher bleiben können.

Bildnachweis: metamorworks / Shutterstock.com, fünf Bäume / Shutterstock.com, Milliarden Fotos / Shutterstock.com.

Brayan Jackson
Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me