卫生保健研究人员必须警惕滥用人工智能

卫生保健研究人员必须警惕滥用人工智能
模型拟合。给定一个包含数据点(绿色点)和真实效应(黑线)的数据集,统计模型旨在估计真实效应。红线表示接近估计,而蓝线表示过度依赖离群值的过拟合ML模型。这样的模型似乎为这个特定的数据集提供了极好的结果,但在另一个(外部)数据集中却不能很好地执行。信贷:自然医学(2022)。DOI: 10.1038 / s41591 - 022 - 01961 - 6

一个国际研究团队在杂志中写道自然医学他建议,在医疗保健研究中,需要特别注意不要滥用或过度使用机器学习(ML)。

“我绝对相信ML的力量,但它必须是一个相关的补充,”荷兰伊拉斯谟MC大学医学中心的神经外科培训和统计编辑维克多·沃洛维奇博士说。他是该评论的第一作者。“有时ML算法的表现不如传统统计方法好,导致发表的论文缺乏临床或科学价值。”

现实世界的例子已经表明,在医疗保健领域,算法的滥用可能会使人类的偏见延续下去,或者在使用有偏见的数据集训练机器时,无意中造成伤害。

“许多人相信ML会给医疗保健带来革命,因为机器比人类更客观地做出选择。但如果没有适当的监管,ML模型可能弊大于利,”该评论的高级作者、来自新加坡杜克-新加坡国立大学医学院定量医学和卫生服务与系统研究项目中心的刘楠副教授说。

“如果通过ML,我们发现了我们平时看不到的模式,比如在放射学和病理学图像中,我们应该能够解释算法是如何做到这一点的,从而实现制衡。”

与一组来自英国和新加坡的科学家一起,研究人员强调,尽管已经制定了规范ML在,这些指南只适用于决定使用ML时,而不询问使用ML是否合适或何时合适。

例如,一些公司已经成功地训练ML算法,利用数十亿张图像和视频来识别人脸和道路物体。但当涉及到它们在医疗保健环境中的使用时,他们通常接受的是数十个、数百个或数千个数据的培训。研究人员写道:“这凸显了大数据在医疗保健领域的相对匮乏,以及努力实现其他行业已达到的样本量的重要性,以及协调一致的国际大数据共享工作在医疗数据方面的重要性。”

另一个问题是,大多数ML和深度学习算法(它们没有收到关于结果的明确指令)通常仍然被视为“黑箱”。例如,在COVID-19大流行开始时,科学家发表了一份它可以通过肺部照片预测冠状病毒感染。后来发现,算法是根据照片中字母“R”(代表“右肺”)的印记得出结论的,而字母“R”在扫描图像上总是出现在稍微不同的位置。

“我们必须摆脱ML可以发现我们无法理解的数据模式的想法,”沃罗维奇博士在谈到这件事时说。“ML可以很好地发现我们无法直接看到的模式,但你必须能够解释你是如何得出这个结论的。为了做到这一点,算法必须能够显示它采取了哪些步骤,而这需要创新。”

研究人员建议ML算法在应用于临床研究之前应该与传统的统计方法(如果适用)进行评估。在适当的时候,它们应该补充临床医生的决策,而不是取代它。研究人员写道:“ML研究人员应该认识到他们的算法和模型的局限性,以防止它们的过度使用和滥用,否则可能引发不信任并导致患者伤害。”

这个团队正在组织一个为ML和传统统计学的使用提供指导,并建立一个大型的匿名临床数据数据库,可以利用ML算法的力量。


进一步探索

利用人工智能从患者数据中安全检测癌症

更多信息:Victor Volovici等,避免机器学习在临床研究中的过度使用和误用的步骤,自然医学(2022)。DOI: 10.1038 / s41591 - 022 - 01961 - 6
期刊信息: 自然医学

所提供的Duke-NUS医学院
引用:卫生保健研究人员必须警惕误用2022年10月18日从//www.pyrotek-europe.com/news/2022-09-health-wary-misusing-ai.html检索的AI(2022年,9月13日)
本文件受版权保护。除用于个人学习或研究的公平交易外,未经书面许可,不得转载任何部分。内容仅供参考之用。
42股票

反馈给编辑