本文综述了科学根据X编辑过程政策编辑器强调了以下属性同时确保内容的可信度:

核查事实的

同行评议的出版物

可信的源

校对

探索人工智能在ICU的角色

人工智能
信贷:Pixabay / CC0公共领域

临床医生在重症监护室需要快速、准确地做出复杂决定,监测危重或不稳定的病人。

来自卡耐基梅隆大学的研究人员的人机交互研究所(HCII)与医生合作,匹兹堡大学的研究人员和UPMC确定人工智能可以帮助如果临床医生甚至会相信这种援助。

团队让24名ICU医生使用一个基于ai工具旨在帮助做出决定和发现大多数的援助并入到他们的一些决策。

“感觉像临床医生兴奋的潜力AI来帮助他们,但他们可能会不熟悉这些人工智能工具如何工作。所以它很有趣把这些系统对他们来说,“Venkatesh Sivaraman说,博士生HCII和研究小组的成员之一。

使用AI临床医师模式介绍了自然2018年由一群研究人员,团队设计了一个交互式的临床决策支持(CDS)接口“AI治疗脓毒症临床医生浏览器提供了建议。模型训练数据集的18000多名患者遇到标准为脓毒症诊断标准在ICU停留。系统支持临床专家过滤和搜索病人数据集,想象他们的疾病轨迹,比较模型的预测实际的治疗决定在床边。

“临床医生总是对病人输入大量的数据他们看到这些计算机系统”,Sivaraman说。“我们的想法是,也许我们可以学习一些数据,所以我们可以尝试加快他们的一些流程,简化他们的生活一点也可能提高护理的一致性。”

团队通过自言自语试探他们的系统研究和24个ICU临床医师实践和经验治疗脓毒症。在研究过程中,参与者使用一个简化的AI医生浏览器接口来评估和制定治疗决策的四个模拟病人的病例。

“我们认为临床医生会让AI决定完全或完全忽略它,做出自己的决定,“Sivaraman说。

但结果并不那么二进制。临床医师之间的团队确定了四种常见的行为:忽略,依赖,考虑和谈判。“忽略”集团没有让AI影响他们的决定,主要是看推荐之前做了这样的决定。

相比之下,“依赖”集团一直接受至少部分的人工智能的输入每一个决定。在“考虑”,医生想AI建议在任何情况下,然后要么接受或拒绝它。然而,大多数参与者掉进了“谈判”集团,其中包括从业人员接受各个方面的建议至少有一个自己的决定,但不是全部。

团队对这些结果感到意外,也提供了有关如何改进AI临床医生的探险家。临床医生担心,人工智能没有获得更全面的数据,如病人的一般外观和持怀疑态度当AI相反他们教的建议。

“当cd偏离通常会做或认为是最佳实践,没有一个好的原因,”Sivaraman说。“现在,我们专注于确定如何提供这些数据和验证这些建议,这是一个具有挑战性的问题,需要机器学习和人工智能。”

团队的研究并不试图取代或复制临床决策,而是希望利用AI揭示模式可能被忽视过去的病人的结果。

“有很多疾病,如败血症,为每个病人可能出现非常不同,最好的做法可能是不同的根据,“Sivaraman说。“任何一个人不可能积累知识,知道如何做事情最好的在任何情况下。所以AI可以推动他们的方向没有考虑或者帮助验证他们认为最好的做法。”

Sivaraman的合作者包括亚当•每HCII助理研究教授;高级研究经理利布可维斯基在匹兹堡大学的公共卫生学院的;乔尔·莱文,皮特的Katz博士研究生商学院;和杰里米·卡恩,医生在UPMC危重病医学和危重病医学副教授在皮特医学院的卫生政策和公共卫生学院。

Sivaraman团队提出的论文“忽略、信任或谈判:理解临床医师接受基于ai的治疗建议卫生保健”本月在计算机协会的会议上人为因素在计算系统(CHI 2023)在汉堡,德国。

上的论文发表arXiv预印本服务器。

更多信息:会议:chi2023.acm.org/

Venkatesh Sivaraman et al,忽略、信任或谈判:理解临床医师接受基于ai在卫生保健治疗建议,arXiv(2023)。DOI: 10.48550 / arxiv.2302.00096

期刊信息: 自然 ,arXiv

引用:探索人工智能在ICU的角色(2023年4月27日)检索2023年4月30日从//www.pyrotek-europe.com/news/2023-04-exploring-role-ai-icu.html
本文档版权。除了任何公平交易私人学习或研究的目的,没有书面许可,不得部分复制。内容只提供信息的目的。

进一步探索

Patient-reported社会风险和临床决策:临床医师的一项调查的结果

25股票

反馈给编辑