人工智能工具可以像同事一样提供建议,从而获得医生的信任
医院已经开始使用由人工智能驱动的“决策支持工具”,这些工具可以诊断疾病、提出治疗建议或预测手术结果。但是没有算法是一直正确的,所以医生怎么知道什么时候应该相信人工智能的建议呢?
康奈尔大学安s鲍尔斯计算与信息科学学院信息科学助理教授杨倩领导的一项新研究表明,如果人工智能工具可以像同事一样为医生提供建议——指出支持决策的相关生物医学研究——那么医生就可以更好地衡量建议的优点。bob88体育平台登录
研究人员将于4月在计算系统中人为因素的计算机协会CHI会议上发表这项新研究,“利用生物医学文献校准临床医生对人工智能决策支持系统的信任”。
此前,大多数人工智能研究人员都试图通过解释底层算法的工作原理,或者使用哪些数据来训练人工智能,来帮助医生评估决策支持工具的建议。但杨元庆表示,只了解人工智能如何进行预测是不够的。许多医生想知道该工具是否已被验证临床试验这通常不会发生在这些工具上。
“医生的主要工作不是学习人工智能如何工作,”杨说。“如果我们能够建立一个系统,帮助验证基于临床试验结果和期刊文章的人工智能建议,这对医生来说是值得信赖的信息,那么我们就可以帮助他们了解人工智能对于每个具体病例是对还是错。”
为了开发这个系统,研究人员首先采访了不同专业的9名医生和3名临床图书管理员。他们发现,当医生在正确的治疗方案上存在分歧时,他们会追踪相关生物医学研究的结果bob88体育平台登录案例研究考虑到每项研究的质量以及它与手头案例的密切关系。
Yang和她的同事们建立了一个临床决策工具的原型,通过在人工智能的建议中展示生物医学证据来模拟这一过程。他们使用GPT-3来寻找和总结相关研究。(ChatGPT是GPT-3更广为人知的分支,它是为人类对话量身定制的。)
杨说:“我们建立了一个系统,基本上是试图重现医生相互给出建议时我们观察到的人际交流,并从临床文献中获取同样的证据来支持人工智能的建议。”
决策支持工具的界面列出了患者信息,病史一边是实验室测试结果,另一边是人工智能的个性化诊断或治疗建议,然后是相关的生物医学研究。为了回应医生的反馈,研究人员为每项研究添加了一个简短的总结,突出了患者群体、医疗干预和患者结果的细节,这样医生就可以快速吸收最重要的信息。
研究小组为三个专业(神经病学、精神病学和姑息治疗)开发了原型决策支持工具,并要求每个专业的三名医生通过评估样本病例来测试原型。
在采访中,医生们说他们很感激临床证据他认为这篇文章直观易懂,比起对人工智能内部工作原理的解释,他更喜欢这篇文章。
“这是一种高度一般化的方法,”杨说。这种方法适用于所有医学专业和其他应用科学证据是需要的,比如问答平台来回答患者的问题,甚至是自动检查与健康相关的新闻报道。“我希望看到它嵌入到正在开发的不同类型的人工智能系统中,这样我们就可以让它们对临床实践有用。”
更多信息:利用生物医学文献校准临床医生对人工智能决策支持系统的信任(2023年)。DOI: 10.1145/3544548.3581393。www.researchgate.net/publication/367295941