专家警告称,使用人工智能抗击新冠肺炎可能会伤害“弱势群体”

快速部署人工智能和机器学习来应对冠状病毒仍然必须经过伦理审查和平衡,否则我们在急于战胜疾病的过程中可能会伤害已经处于弱势地位的社区。
这是剑桥大学莱弗休姆未来智力中心(CFI)的研究人员在两篇文章中得出的结论英国医学杂志他警告说,在我们努力在2021年恢复一些正常状态之际,不要盲目地将人工智能用于数据收集和医疗决策。
CFI主任、其中一篇文章的主要作者斯蒂芬·凯夫博士说:“在危机中放松道德要求可能会产生意想不到的有害后果,其影响远远超过流感大流行的寿命。”
“复杂而不透明的人工智能的突然引入,让曾经由人类做出的判断变得自动化个人信息,可能会损害弱势群体的健康,以及公众对科技的长期信任。”
在另一篇由CFI的Alexa Hagerty博士合著的论文中,研究人员强调了人工智能现在进行大规模临床选择所产生的潜在后果——例如,如果它是基于有偏见的数据进行选择的话,那么它可以预测可能需要通气的病人的病情恶化率。
用于“训练”和细化的数据集机器学习算法不可避免地不利于较少获得保健服务的群体,如少数族裔社区和那些“社会经济地位较低”的群体。
“COVID-19已经对脆弱社区产生了不成比例的影响。我们知道这些系统可以区别对待,任何治疗这种疾病的算法偏差都可能导致更严重的打击,”哈格蒂说。
去年12月,斯坦福医疗中心(Stanford Medical Centre)的算法将在家工作的员工优先于在COVID病房接种疫苗的员工,随后引发了抗议。“算法现在被用于地方、国家和全球范围来确定疫苗分配。在许多情况下,人工智能在决定谁最适合在大流行中生存方面发挥着核心作用,”哈格蒂说。
“在如此严重的健康危机中,公平和公平的利害关系是极其重大的。”
哈格蒂和同事们一起强调了人工智能中公认的“歧视蔓延”现象,人工智能使用“自然语言处理”技术从医疗记录中提取症状特征,反映并加剧了案例中已经出现的对少数族裔的偏见。
他们指出,一些医院已经使用这些技术从一系列记录中提取诊断信息,一些医院现在正在使用这种人工智能来识别COVID-19感染的症状。
类似地,追踪和追踪应用程序的使用可能会产生有偏差的数据集。研究人员写道,在英国,超过20%的15岁以上的人缺乏必要的数字技能,高达10%的某些人口“子群体”没有智能手机。
“是否来自医疗记录或者使用日常技术、以一种万无一有的方式应用有偏见的数据集来应对COVID-19,可能会对那些已经处于不利地位的人有害,”哈格蒂说。
在BMJ研究人员列举了一些例子,例如,由于缺乏肤色数据,人工智能模型几乎不可能对血氧水平进行大规模精确计算。或者,美国监狱系统用来校准再犯罪的算法工具(已被证明具有种族偏见)如何被重新用于管理COVID-19感染风险。
莱弗休姆未来情报中心最近启动了英国首个人工智能伦理硕士课程。对于凯夫及其同事来说,新冠肺炎时代的机器学习应该从生物医学伦理学的角度来看待,特别是“四大支柱”。
第一个是善行。凯夫说:“使用人工智能的目的是拯救生命,但这不应该被用作设立不受欢迎先例的全面理由,比如广泛使用面部识别软件。”
在印度,生物识别程序可以与疫苗分发联系起来,这引发了对数据隐私和安全的担忧。哈格蒂说,其他疫苗分配算法,包括COVAX联盟使用的一些算法,是由私人拥有的人工智能驱动的。“专利算法让我们很难查看‘黑箱’,也很难看到它们是如何确定疫苗优先级的。”
第二个是“non-maleficence”,即避免不必要的伤害。例如,一个仅为维持生命而编程的系统将不考虑“长冠状病毒”的发病率。第三,人的自主性必须是计算的一部分。专业人员需要信任技术,设计师应该考虑系统如何影响人类行为——从个人预防到治疗决策。
最后,数据驱动的人工智能必须以社会正义理念为基础。“我们需要让不同的社区参与进来,并咨询从工程师到一线医疗团队的各种专家。我们必须公开这些系统固有的价值观和权衡,”凯夫说。
“人工智能有潜力帮助我们解决全球问题,而这场大流行无疑是一个重大问题。但在这个危机时刻依赖强大的人工智能会带来伦理挑战,为了获得公众信任,我们必须考虑这些挑战。”
在新冠肺炎医疗保健时代,“人工智能”是否意味着加剧不平等?英国医学杂志(2021)。DOI: 10.1136 / bmj.n304
用户评论