AI是否会使您的私人健康数据面临风险?

加州大学伯克利分校完成的一项新研究表明,美国现行法律框架准备不足,无法就人工智能如何影响人们的数字隐私进行立法.


该研究着重于AI如何能够使用庞大的数据存储库来识别个人及其个人健康数据。根据首席研究员Anil Aswani的说法,人工智能可以使用从活动跟踪器,智能手机和智能手表收集的步骤数据,并将其与人口统计数据进行交叉引用以识别个人.

在研究过程中,伯克利大学的研究人员使用了从15,000名美国个人那里获得的数据,成功地证明了当前的法律法规不足以保护人们的私人健康数据。这项研究于去年12月21日发表在《 JAMA网络开放》杂志上,该研究表明,如果要获得人们的健康数据,则迫切需要重新评估现行《健康保险携带和责任法案》(HIPAA)立法中规定的隐私标准。受到适当保护.

人工智能使您的数据健康数据面临风险

重新分配个人数据

该研究的主要发现涉及匿名或假名数据的重新归类。根据Aswani的说法,从与健康相关的数据集中剥离所有识别信息并不能适当地保护个人。这是因为公司有可能使用AI重新分配以前匿名的数据。阿斯瓦尼解释说:

"HIPAA法规使您的医疗保健变得私密,但涵盖的范围却不如您想像的那样。 HIPAA并不涵盖许多团体,例如科技公司,并且当前的HIPAA规则仅允许共享非常具体的信息。有公司在购买健康数据。它应该是匿名数据,但是他们的整个商业模型是找到一种方法来将名称附加到该数据上并出售."

阿斯瓦尼(Aswani)描述了像Facebook这样的公司如何使其业务将敏感数据重新组合在一起。不幸的是,当前的美国法律并没有阻止公司重新分配先前清理的数据,这使人们的私人健康数据处于危险之中:

"原则上,您可以想象Facebook从智能手机上的应用程序收集步骤数据,然后从另一家公司购买医疗保健数据并将两者匹配。现在他们将拥有与姓名匹配的医疗保健数据,并且他们可以根据该名称开始销售广告,也可以将数据出售给其他人."

对于那些潜在的健康问题苦苦挣扎的人们来说,这种影响是显而易见的,这种健康数据可能导致歧视。任何可以成功归因于个人的健康数据都可以由健康保险公司在其决策过程中使用。对于分步数据,久坐的生活方式(健康保险公司不应该自动知道的事情)可能会导致更高的保费.

容易接近

加州大学伯克利分校的研究表明,人工智能功效的提高将大大提高私营部门收集有关个人健康相关数据的能力。研究人员认为,这将不可避免地引起企业以不道德或秘密方式使用数据的诱惑。.

随着AI的提高,个人,雇主,抵押贷款人,信用卡公司和保险公司可能会发现自己的健康数据遭到拒绝。阿斯瓦尼的团队遇到了麻烦-因为这可能导致公司根据怀孕或残疾等因素进行歧视.

AI歧视

常见问题

这已不是第一次成功将匿名或化名数据归因于个人。麻省理工学院在2015年进行的研究表明,以前清理过的信用卡数据可以成功地重新分配.

麻省理工学院使用了来自10,000家商店的去识别数据,其中包含110万信用卡客户的详细信息。根据首席研究员伊夫·亚历山大·蒙特乔伊(Yves-Alexandre de Montjoye)的说法,如果成功发现了特定标记,则很容易将一个人挑出来。根据麻省理工学院的说法,这些重要标志物可以使用多达3或4笔交易中的数据来发现.

研究表明,数据假名化过程远非万无一失。这令人担忧,因为即使在GDPR大大改善了人们的数据隐私权的欧盟中,数据假名被吹捧为企业在不违反法律的情况下处理“特殊类别”或敏感数据的一种方法。特殊类别数据包括遗传数据和有关健康的数据.

加州大学伯克利分校的新研究和之前的麻省理工学院的研究都表明,数据的假名化可能不足以无限期地保护数据。这意味着即使是最具前瞻性的数据隐私法案也可能无法充分保护公民免受拼图攻击.

AI法律

需要立法更新

阿斯瓦尼及其研究人员团队敦促美国政府“重新审查和修改”现有的HIPPA立法,以保护人们免受AI造成的危害。需要保护健康数据的新法规,但伯克利大学的研究人员担心美国的决策者似乎走错了方向:

"理想情况下,我希望从中看到保护健康数据的新法规。但是实际上,现在有很大的努力甚至削弱法规。例如,HIPAA的规则制定小组已要求就增加数据共享发表意见。风险是,如果人们不知道发生了什么,我们所拥有的规则将被削弱。而且,事实是,在医疗保健方面,我们失去对隐私的控制的风险实际上正在增加而不是减少."

如果这个故事使您重新考虑自己的在线安全性,为什么不看一下我们最好的VPN服务页面,以了解如何保持在线安全性.

图片来源:metamorworks / Shutterstock.com,五棵树/Shutterstock.com,十亿张照片/Shutterstock.com.

Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me