AIは個人の健康データを危険にさらしていますか?

UC Berkeleyで完了した新しい研究により、現在の米国の法的枠組みは、人工知能が人々のデジタルプライバシーにどのように影響するかを立法化する準備が整っていないことが明らかになりました。.


この研究では、個人とその個人の健康データを特定するために、AIが膨大なデータのリポジトリをどのように使用できるかに焦点を当てています。主任研究者であるAnil Aswani氏によると、AIはアクティビティトラッカー、スマートフォン、スマートウォッチから収集された歩数データを使用し、人口統計データと相互参照して個人を識別することができます.

研究中、バークレーの研究者は、15,000人の米国人から採取したデータを使用して、現在の法律と規制が人々の個人の健康データを適切に保護していないことを実証しました。 JAMA Network Openジャーナルで昨年12月21日に公開された調査では、現在の医療保険の携行性と説明責任に関する法律(HIPAA)で定められたプライバシー基準は、人々の健康データが必要な場合、再評価が緊急に必要であることを明らかにしています適切に保護された.

データ健全性データを危険にさらすAI

個人データの再帰属

この研究からの主要な発見には、匿名化または仮名化されたデータの再帰属が含まれます。 Aswaniによると、健康関連のデータセットからすべての識別情報を除去しても、個人は適切に保護されません。これは、企業がAIを使用して、以前に匿名化されたデータを再割り当てできるためです。アスワニの説明:

"HIPAA規制はあなたのヘルスケアを非公開にしますが、あなたが思うほどにはカバーしていません。ハイテク企業などの多くのグループはHIPAAの対象外であり、現在のHIPAAルールで共有できるのは非常に特定の情報のみです。健康データを購入している企業があります。それは匿名データであるはずですが、彼らのビジネスモデル全体は、このデータに名前を付けて販売する方法を見つけることです。."

アスワニは、Facebookのような企業が機密データを元に戻すことをビジネスにした方法について説明しています。残念ながら、現在の米国の法律は、企業が以前にスクラブしたデータを再配分することを妨げていません。これは、人々の個人の健康データを危険にさらしています。

"原則として、Facebookがスマートフォンのアプリからステップデータを収集し、別の会社からヘルスケアデータを購入し、2つを一致させることを想像できます。これで、名前に一致するヘルスケアデータが得られ、それに基づいて広告の販売を開始したり、他の人にデータを販売したりできます。."

潜在的な健康上の問題に苦しんでいる人々にとって、この健康データは差別につながる可能性があります。健康保険会社は、個人に適切に帰属できる健康データを、たとえば意思決定プロセスで使用できます。ステップデータの場合、より座りがちなライフスタイル(健康保険会社が自動的に知るべきではないもの)は、より高い保険料につながる可能性があります.

簡単アクセス

UC Berkeleyの研究は、AIの有効性が高まると、個人に関する健康関連データを収集する民間部門の能力が大幅に向上することを示しています。研究者は、これが必然的に企業が非倫理的または秘密の方法でデータを使用する誘惑を引き起こすと信じています.

AIが向上するにつれて、個人は、雇用主、住宅ローンの貸し手、クレジットカード会社、保険会社から自分の健康データが引き返されることに気付く可能性があります。アスワニのチームは問題を抱えています-妊娠や障害などの要因に応じて企業が差別される可能性があるためです.

AI差別

一般的な問題

匿名化されたデータまたは仮名化されたデータが正常に個人に関連付けられたのはこれが初めてではありません。 2015年にMITが実施した調査により、以前にスクラブしたクレジットカードデータを正常に再割り当てできることが明らかになりました.

MITは、110万人のクレジットカード顧客の詳細を含む10,000店舗の匿名化されたデータを使用しました。主任研究者のイヴ・アレクサンドル・ド・モンジョワによると、特定のマーカーの発見に成功すれば、個人を簡単に見つけることができます。 MITによると、これらの重要なマーカーは、わずか3つまたは4つのトランザクションからのデータを使用して発見される可能性があります.

この研究は、データの仮名化プロセスが絶対確実とはほど遠いことを示しています。これは、GDPRが人々のデータプライバシー権を大幅に改善したEUでも、データの仮名化が、企業が法律を破ることなく「特別なカテゴリ」または機密データを処理する方法として宣伝されているためです。特別なカテゴリデータには、遺伝データと健康に関するデータが含まれます.

新しいUC Berkeleyの研究と以前のMITの研究の両方は、データの仮名化ではデータを無期限に保護するのに十分でない可能性があることを示しています。これは、最も先進的なデータプライバシー法案でさえ、市民をジグソー攻撃から適切に保護できない可能性があることを意味します.

AI法

立法上の更新が必要

アスワニと彼の研究者チームは、AIによって引き起こされる危険から人々を保護するために、既存のHIPPA法を「再検討し、再検討する」よう米国政府に要請しました。健康データを保護する新しい規制が必要ですが、バークレーの研究者は、米国の政策立案者が間違った方向に進んでいるように見えることを心配しています。

"理想的には、これから見たいのは、健康データを保護する新しい規制や規則です。しかし、実際には規制をさらに弱体化させる大きな推進力があります。たとえば、HIPAAのルール作成グループは、データ共有の増加に関するコメントを要求しています。リスクは、人々が何が起こっているのかを知らない場合、私たちが持っているルールが弱体化することです。そして、実際のところ、医療に関してはプライバシーの制御を失うリスクは実際には増加しており、減少していない."

このストーリーがあなた自身のオンラインセキュリティを再考させたなら、あなたがオンラインで安全に滞在する方法のために私たちの最高のVPNサービスページを見てみませんか.

画像クレジット:metamorworks / Shutterstock.com、five trees / Shutterstock.com、Billion Photos / Shutterstock.com.

Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me