人工智能促进医疗公平

人工智能促进医疗公平
(从左到右)Regina Barzilay是工程学院人工智能与健康特聘教授,也是麻省理工学院Jameel诊所人工智能的联合负责人。Collin Stultz是麻省总医院的电气工程和计算机科学教授和心脏病专家。福蒂尼·克里斯蒂亚是政治学教授和社会技术系统研究中心主任。图片来源:麻省理工学院

人工智能为医疗保健带来公平的潜力已经激发了大量的研究努力。传统上,种族、性别和社会经济差异以难以发现和量化的方式困扰着卫生保健系统。然而,新的人工智能技术正在为变革提供一个平台。

工程学院人工智能与健康特聘教授、麻省理工学院Jameel诊所人工智能联合负责人Regina Barzilay;政治科学教授、麻省理工学院社会技术系统研究中心主任Fotini Christia;以及麻省总医院的电气工程和计算机科学教授、心脏病专家科林·斯图尔茨在这里讨论了人工智能在公平方面的作用、当前的解决方案和政策含义。这三位是将于4月12日举行的AI for Healthcare Equity会议的联合主席。

问:人工智能如何帮助解决卫生保健系统中的种族、性别和社会经济差异?

斯图兹:很多因素导致了医疗保健系统的经济差异。首先,毫无疑问,人类固有的偏见导致了边缘化人群不同的健康结果。尽管偏见是人类心理中不可避免的一部分,但它是阴险的、无处不在的、难以察觉的。事实上,个体在发现自己对世界的感知中预先存在的偏见方面是出了名的差——这一事实推动了内隐联想测试的发展,使人们能够理解潜在的偏见如何影响决策。

人工智能为开发能够使个性化医疗成为现实的方法提供了一个平台,从而确保客观地做出临床决策,以最大限度地减少不同人群的不良后果。特别是机器学习,它描述了一套帮助计算机从数据中学习的方法。原则上,这些方法可以提供基于对基础数据的客观分析的无偏预测。

然而,不幸的是,偏见不仅会影响个人感知周围世界的方式,还会影响我们用来构建模型的数据集。储存患者特征和结果的观察性数据集往往反映出卫生保健提供者的潜在偏见;例如,某些治疗可能优先提供给那些社会经济地位高的人。简而言之,算法可以继承我们自己的偏见。因此,使个性化医疗成为现实的前提是我们有能力开发和部署公正的工具,从临床观察数据中学习患者特定的决策。这项努力成功的关键是开发出能够识别算法偏差并在发现偏差时提出缓解策略的方法。

知情的,客观的,和患者特异性的临床决策是现代临床护理的未来。机器学习将在很大程度上使这成为现实——数据驱动的临床见解,摆脱可能影响医疗保健决策的隐性偏见。

问:目前这个领域有哪些正在开发的人工智能解决方案?

Barzilay:在大多数情况下,有偏见的预测可以归因于训练数据的分布特性。例如,当某些群体在训练数据中代表不足时,结果分类器很可能在这个群体上表现不佳。默认情况下,模型是针对整体性能进行优化的,因此无意中更倾向于适合大多数类别,而牺牲了其他类别。如果我们意识到数据中有这样的少数群体,我们就有多种方法来引导我们的学习算法走向公平行为。例如,我们可以修改学习目标,在不同的群体中加强一致的准确性,或者重新衡量训练例子的重要性,放大少数群体的“声音”。

另一个常见的偏见来源与“讨厌的变化”有关,在这种情况下,分类标签表现出与某些特定于数据集的输入特征的特殊相关性,而这些输入特征不太可能泛化。在一个声名狼藉的具有此类属性的数据集中,具有相同病史的患者的健康状况取决于他们的种族。这是训练数据构建方式的不幸产物,但它导致了对黑人患者的系统性歧视。如果事先知道这些偏差,我们可以通过强制模型减少这些属性的影响来减轻它们的影响。然而,在许多情况下,我们的训练数据的偏差是未知的。可以有把握地假设,应用模型的环境很可能表现出与训练数据的一些分布差异。为了提高模型对这种变化的容忍度,有许多方法(如不变风险最小化)显式地训练模型,使其能够稳健地泛化到新环境中。

然而,我们应该意识到,算法不是可以纠正乱糟糟的现实训练数据中所有错误的魔杖。当我们不知道特定数据集的特性时,这一点尤其正确。不幸的是,后一种情况在数据管理和医疗保健领域中很常见通常由不同的团队执行。这些“隐藏的”偏见已经导致部署的AI工具系统地在特定人群上出错(就像上面描述的模型)。在这种情况下,为医生提供工具,使他们能够理解模型预测背后的原理,并尽快发现有偏见的预测是至关重要的。如今,机器学习领域的大量工作都致力于开发能够向用户传达其内部推理的透明模型。在这一点上,我们对什么类型的原理对医生特别有用的理解是有限的,因为人工智能工具还不是常规医疗实践的一部分。因此,麻省理工学院Jameel诊所的关键目标之一是在世界各地的医院部署临床AI算法,并实证研究它们在不同人群和临床环境中的表现。这些数据将为下一代自解释和公平的AI工具的开发提供信息。

问:更公平的医疗保健人工智能对政府机构和行业的政策影响是什么?

克里斯蒂亚:人工智能在医疗保健领域的应用现在已经成为现实为了从更公平的医疗保健人工智能中获益,他们需要创建一个人工智能生态系统。他们必须密切合作,与临床医生和患者合作,优先考虑在该领域使用的人工智能工具的质量,确保它们是安全的,并为黄金时段做好准备。这意味着部署的人工智能工具必须经过充分测试,并能提高临床医生的能力和患者的体验。

为此,政府和行业参与者需要考虑开展教育运动,让卫生从业人员了解具体的人工智能干预措施在补充和扩大其解决公平问题工作中的重要性。除了临床医生之外,还必须关注在少数群体患者中建立信心,相信这些人工智能工具的引入将带来更好、更公平的整体护理。尤其重要的是,要透明地了解在卫生领域使用人工智能对个别患者意味着什么,并缓解少数族裔患者对数据隐私的担忧,鉴于历史上对他们的违法行为,他们往往对“善意的”卫生保健系统缺乏信任。

在监管领域,政府机构需要制定一个框架,使它们能够明确AI的资金和与行业和医疗保健专业人员的责任,以便部署最高质量的AI工具,同时最小化临床医生和患者使用它们的相关风险。法规需要明确,临床医生并没有将他们的责任完全外包给机器,并概述对患者健康的专业问责水平。政府机构与行业、临床医生和患者密切合作,还必须通过数据和患者体验监测人工智能工具在解决问题方面的实际有效性关注实地的差异,并致力于改善它们。


进一步探索

研究发现,大多数医疗保健领域的内隐偏见培训缺乏适当的基础

所提供的麻省理工学院

本文由麻省理工学院新闻(web.mit.edu/newsoffice/),这是一个很受欢迎的网站,涵盖麻省理工学院的研究、创新和教学方面的新闻。

引用:人工智能促进医疗保健公平(2021年,3月24日),检索自2022年5月29日//www.pyrotek-europe.com/news/2021-03-artificial-intelligence-health-equity.html
本文件受版权保护。除用于个人学习或研究的公平交易外,未经书面许可,不得转载任何部分。内容仅供参考之用。
2股票

对编辑的反馈