对人工智能优于医生的“夸大”研究声明的担忧

人工智能
资料来源:CC0公共域名

许多研究声称,人工智能在解读医学图像方面和人类专家一样好(甚至更好),但这些研究质量很差,而且可以说是夸大其词,给“数百万患者”的安全带来了风险英国医学杂志今天。

他们的发现引起了人们对支持这些研究的证据质量的关注,并强调了改进其设计和报告标准的必要性。

人工智能(AI)是一个创新和快速发展的领域,具有改善患者护理和缓解医疗服务负担过重的潜力。深度学习是人工智能的一个分支,在医学成像方面表现出了特别的潜力。

已发表的关于一些媒体的头条新闻声称其表现优于医生,这助长了快速实施的炒作。但是这些标题背后的研究方法和偏见风险还没有被详细检查。

为了解决这个问题,一组研究人员回顾了过去10年发表的研究结果,比较了深度学习算法在医学成像和专业临床医生中的性能。

他们随机发现了两个符合条件的81个非随机研究。

在非随机化研究中,只有9项是前瞻性的(随着时间的推移跟踪和收集个人信息),只有6项在“

在比较组中,人类专家的平均人数只有4人,而获取原始数据和代码(以便对结果进行独立审查)的机会则受到严重限制。

超过三分之二(81项研究中的58项)的研究被判定为具有较高的偏倚风险这可能会影响结果),并且对公认的报告标准的遵守往往很差。

四分之三(61项研究)认为人工智能的表现至少与临床医生相当(或更好),只有31项(38%)认为需要进一步的前瞻性研究或试验。

研究人员指出了一些局限性,比如可能会遗漏研究,以及对深度学习医学成像研究的关注,因此研究结果可能不适用于其他类型的人工智能。

尽管如此,他们说,目前,“许多有争议的夸大其词的说法存在着与临床医生同等(或优于)的说法,这在社会层面上对患者安全和人群健康构成了潜在风险。”

他们警告说,过度承诺的语言“让研究容易被媒体和公众曲解,从而可能提供不恰当的治疗,不一定符合患者的最大利益”。

他们总结道:“确保我们发展出一个高质量和透明报告的证据基础,将最好地服务于最大限度的患者安全。”


进一步探索

首次系统回顾和荟萃分析表明,人工智能在诊断疾病方面可能与卫生专业人员一样有效

更多信息:人工智能与临床医生:对医学成像领域的设计、报告标准和深度学习研究的声明进行系统性回顾,英国医学杂志,DOI: 10.1136 / bmj.m689
所提供的英国医学杂志
引用:对人工智能优于医生的“夸大”研究说法的担忧(2020年3月25日),2021年5月18日从//www.pyrotek-europe.com/news/2020-03-exaggerated-ai-outperforming-doctors.html检索
此文件受版权保护。除作私人学习或研究之公平交易外,未经书面许可,任何部分不得转载。本内容仅供参考之用。
68股票

反馈给编辑

用户评论