潜在陪审员支持在精准医疗中使用人工智能
根据一项针对美国潜在陪审团候选人的新研究,遵循人工智能(AI)建议的医生可能被认为对医疗事故承担的责任比通常认为的要小,该研究发表在《医学杂志》1月号上核医学杂志(JNM).这项研究首次提供了有关医生在个性化医疗中使用人工智能的潜在责任的数据,这往往会偏离标准护理。
“新的人工智能工具可以帮助医生治疗建议以及诊断,包括医学图像的解释,”华盛顿特区乔治敦大学法律中心法学助理教授凯文·托比亚(Kevin Tobia)说“但如果医生依赖人工智能工具,出了问题,陪审员判定他们承担法律责任的可能性有多大?”许多这样的案件永远不会进入陪审团,但对于一个已经进入陪审团的案件,答案取决于医学专家的观点和证词,以及非专业陪审团的决策。我们的研究是第一次关注最后一个方面,研究潜在陪审员对使用人工智能的医生的态度。”
为了确定潜在陪审员对责任的判断,研究人员对美国2000名成年人的代表性样本进行了在线研究。每个参与者都阅读了人工智能系统提供药物剂量治疗的四种场景中的一种建议去找医生。这些场景改变了人工智能建议(标准或非标准药物剂量)和医生的决定(接受或拒绝人工智能建议)。在所有情况下,医生的决定随后都会对病人造成伤害。
然后,研究参与者通过评估在类似情况下“大多数医生”和“合理的医生”是否都能做出治疗决定来评估医生的决定。得分越高,表示赞同程度越高,因此责任也就越低。
研究结果表明,参与者使用两个不同的因素来评估医生对医疗AI系统的使用:(1)所提供的治疗是否标准;(2)医生是否遵循AI的建议。参与者认为接受标准人工智能建议的医生比拒绝它的医生更有利。然而,如果一名医生收到了不标准的人工智能建议,他或她并不能通过拒绝它来判断是否更安全。
虽然先前的文献表明,外行非常反对人工智能,但这项研究发现,事实上,他们并不强烈反对医生接受人工智能的医疗建议。这一发现表明医生的威胁是合法的责任接受人工智能建议的比例可能比通常认为的要小。
在JNM文章的邀请视角中,W. Nicholson Price II和同事们指出,“责任可能会影响医生的行为,他们决定是否遵循人工智能建议,医院实施人工智能工具医生用户和最先创建这些工具的开发人员。Tobia等的研究应该成为一个有用的滩头阵地,为进一步的工作提供信息,将人工智能集成到医疗实践."
在一篇相关的JNM文章中,研究作者接受了Irène Buvat博士和Ken Herrmann医学博士和MBA的采访,他们都是核医学和分子成像领域的领导者。在采访中,作者讨论了他们的研究结果是否适用于其他国家,人工智能是否可以被视为一种“医学专家”,以及从法律角度使用人工智能的优势等话题。
进一步探索