谁应对AI造成的医疗错误负责?

机器学习算法(MLA)以闪电般的速度分析大量数据。曾经对于人类来说太大而无法正确评估的数据集现在可以用于做出挽救生命的医疗决策。亟待解决的问题是是否应允许AI做出这些选择。而且,如果有,它将如何影响医生,患者以及当前的法律和法规框架?

瑞士苏黎世的健康道德与政策实验室的专家只是一群人开始对AI的使用提出警告。最近发表的一篇论文表示担心,由于MLA内的偏见,患者可能无法获得重要治疗.

问题的症结在于如何开发MLA。该论文表明,自动化系统主要是使用从白人男性患者中提取的数据进行训练的。这种“缺乏多样性”会导致产生误差的偏见。结果,边缘化群体可能最终会遭受更高的医疗失败率.

MLA利用“神经投入”中现有的人类偏见造成了另一个压力点。这些海量数据集为AI模仿或重新表达现有的人类偏见创造了潜力.

可能从人类转移到AI的偏见包括偏高的体重指数(BMI),种族或族裔群体和性别歧视等偏见。这非常令人不安,因为研究人员已经暗示AI能够创造生命并死亡决定.

在英国,研究人员最近发表了一项研究,其中AI可以比传统方法更好地预测过早死亡。研究人员认为,这可以使算法利用“人口统计学,生物特征,临床和生活方式因素”来选择将从早期干预中受益的患者。但是,由于遗传偏见而无法准确定位患者的情况,可能会导致某些人群无法接受治疗.

另一项研究表明,人工智能可以成功地识别出处于30天或150天死亡率高风险的癌症患者。根据这项研究,人工智能可以用于在患者接受昂贵的化学疗法之前对其进行标记。想法是最好将这种昂贵的治疗方法分配到其他地方.

对医疗机器人进行过研究的全球市场研究部对ProPrivacy.com表示:“报告表明,建议向严重出血的癌症患者推荐一种可导致出血加重的药物。”

在另一种情况下,旨在预测哪些肺炎患者可以安全出院的AI算法被错误地认为具有哮喘病史的患者死亡风险较低。 RGM告诉我们:

“这是因为从训练数据中得出的结论是正确的,因为哮喘患者通常会去ICU,接受更积极的护理,因此死亡的可能性较小。”该算法不理解这一点,并使用以下规则:如果某人患有哮喘,应将其视为门诊病人。”

哈佛大学研究助理Shailin Thomas指出:“即使是最好的算法,也有可能在一定百分比的时间内引起潜在的重大负债。”这种固有的负债潜力引起了困惑,因为很难准确理解应由谁承担责任。对最终保证的错误百分比负责.

布莱克·摩根(Blake Morgan)法律总监卡尔·福斯特(Karl Foster)告诉ProPrivacy.com,目前,临床医生将继续承担责任:

“最终,临床医生应对患者负责;这是医学界的首要原则。肯定是在短期内使用AI不太可能改变这一立场”

“如果我们想象AI会询问测试结果并确定特定结果会增加患者患上特定疾病的风险,那么最终-目前-临床医生需要进一步研究。临床医生将继续负责根据其他临床信息解释AI提供的数据,并就最佳治疗方案做出决定。”

另一方面,精神病学家和数据科学家Carlo Carandang认为制造商应承担责任:

“ AI应用程序将被视为医疗设备,因此,此类临床AI应用程序的性能将由制造它们的公司以及负责监督此类医疗设备的FDA和其他监管机构负责。”

全球市场研究(RGM)告诉ProPrivacy.com,尽管目前临床医生确实对“由于内容不正确而不是算法或设备使用不当造成伤害的情况下仍然承担责任”,但责任制必须由设计和实施该产品的人员承担然后保证质量。” RGM指出“这条线可能不太容易定义。”

托马斯担心让公司承担责任可能导致他们完全放弃生产算法。这可能对医疗行业极为不利,因为人工智能已经证明了其潜力.

例如,在中国,研究人员使用的算法比全国最好的医生更成功地检测出脑肿瘤。这些突破可以挽救生命-但前提是生产AI的公司可以在不产生持续责任的情况下这样做.

Fletchers Solicitors的高级律师迈克尔·卡森(Michael Carson)认为,在英国,现行法规适合应对医疗AI的出现。卡森告诉ProPrivacy.com:

“我们应该将AI视为另一种医院设备。认可机构作出的任何错误或误诊,应作为医疗过失索偿处理,认可机构只是医院使用的一种工具.

“该法律可能已经足够强大,可以处理由AI故障引起的问题。实际上,人工智能可以看作是设备和软件的另一种融合,已经在全国卫生总署中普及了。”

然而,RGM指出,当前的法律可能无法充分区分“技术诊断故障中出现错误的情况”和“使用不正确或不适当的数据”引起的情况。

最终,AI只能对给出的数据进行操作。如果该数据不正确或有偏差,则在输入数据之前-很难理解制造商可能会犯错。另一方面,似乎很难责怪医疗专业人员从他们手中做出的决定。.

Foster告诉ProPrivacy.com,美国和欧洲当前的监管制度“目前不预料到旨在设计软件或数据集发展的机器学习。”因此,围绕责任的问题可能会随着时间而演变,监管机构将需要保持变化的灵活性.

谁应对MLA负责是一个复杂的问题,并且已经存在一些分歧。一件事似乎可以肯定,由于医学人工智能的发展速度很快,立法者需要保持警惕,并且必须迅速采取行动以确保准备好应对法规。当新技术出现时,突破性的攻击往往会过早地进入市场,立法者被迫追赶.

AI的最大问题之一是临床医生并不总是了解为什么MLA会做出决策。这是因为AI使用人类无法处理的海量数据来做出选择。 RGM解释说,由于成功率提高:

“医生可能会发现自己错误地证明了AI做出的决定是正确的,这是因为有充分记录的概念(称为自动化偏差)。在这里,人类可能比人们对自己的信任更倾向于信任机器。”

这种潜力极为令人担忧,尤其是当专家警告算法可能因人为偏差而预先编程时,可能会导致渎职.

Brayan Jackson
Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me