一项新的分析表明,预测患者的种族可以改善医疗保健服务的公平性

根据兰德公司的最新分析,旨在指导医疗保健的算法可能会导致种族不平等的结果,但消除关于患者种族和民族的信息作为算法的输入并不是解决这个问题的正确方法。
相反,在无法获得自我识别信息的情况下,使用工具来估计患者的种族和民族信息,实际上可以促进改善医疗保健算法的努力,并使临床医生能够减少成本偏见在他们练习的方式中。
该分析发表在该杂志8月版上卫生事务.
“关于种族和种族——而不是无知——是对抗算法偏见所必需的,”该论文的高级作者、非营利研究机构兰德的高级首席统计学家马克·埃利奥特(Marc Elliott)说。“输入种族和民族信息不仅可以扩大识别算法偏见的机会,还可以打击临床和非临床环境中的偏见。”
算法——从信息中获得预测或分数的定义明确的数学过程——广泛用于帮助医疗保健中的决策制定。这些工具会影响有关谁接受护理、他们接受的护理类型、如何提供护理以及以何种费用提供护理的决定。
医疗保健算法的开发目标是通过最大限度地减少临床决策的变化来提高医疗质量,促进更大的依从性最佳实践最大限度地有效利用稀缺资源。
例如,多项研究发现,与临床评估相比,算法得出的分数可以更准确地预测链球菌性喉炎感染,并识别出癌变皮肤病变。
随着算法在医疗保健领域的应用越来越多,人们越来越认识到,这些工具可能会产生意想不到的后果,即编纂种族和民族偏见,可能会对患者造成更糟糕的结果。
例如,广泛使用算法开发来帮助指导护理心脏衰竭已被证明可以降低黑人患者相对于其他种族类似患者的风险评分。
在另一个案例中,一种常用的用于预测先前剖宫产后阴道分娩成功的算法预测,黑人和西班牙裔母亲的成功率低于类似的白人母亲。
兰德公司的研究人员表示,尽管算法所蕴含的偏见可能会导致不公平的结果,但在许多情况下,有偏见的人类决策是算法偏见的现状替代品。事实上,当算法学会检测已经存在于训练数据中的差异时,算法偏差通常会发生。
虽然很少有人呼吁消除算法来帮助医疗保健决策,但减少算法偏见的一个常见建议是排除种族和民族作为输入,这种做法通常被称为通过无意识实现的公平。
兰德公司的研究人员认为,更好的策略是使用健康差异工具(包括兰德公司团队开发的广泛使用的工具),以种族和民族来衡量算法上的不平等,即使患者的种族和民族没有自我报告,这也是可能的。
输入缺失或不可靠的种族和民族数据有助于识别算法偏见,并明确需要采取哪些纠正措施来减少或消除算法来自治疗决定的偏见。
基于种族和民族的信息如何改善医疗保健公平性的另一个例子是,使用这些信息来确保绩效薪酬计划的公平性,该计划使用支付系统奖励提供更高质量医疗服务的临床医生。
埃利奥特说:“在医疗保健研究中,种族和民族归因传统上被用于确定健康差异。”“算法的持续增长和使用卫生保健决策突出了杠杆的必要性比赛以及种族归属问题健康新方式的差异。”
这份分析报告的其他作者还有Irineo Cabreros、Denis Agniel、Steven C. Martino和Cheryl L. Damberg。
进一步探索