本文综述了科学根据X编辑过程政策编辑器强调了以下属性同时确保内容的可信度:

核查事实的

同行评议的出版物

可信的源

校对

人工智能在医学成像可以放大卫生不公平现象,研究发现

医学成像
信贷:Pixabay / CC0公共领域

人工智能(AI)技术在医学领域有可能自动诊断,减少医生工作量,甚至给人们带来专业医疗在农村地区或发展中国家。然而,可能是潜在的缺陷。

分析众包数据集用于创建从人工智能算法马里兰大学医学院(UMSOM)的研究人员发现,大多数不包括病人的人口统计数据。这项研究发表在4月3日自然医学,研究人员还发现,没有评价的算法固有的偏见。这意味着他们没有办法知道是否这些图像包含代表样本的人口如黑人、亚洲人,和土著美国人。

医学研究人员称,在美国已经充满了偏心对某些种族、性别、年龄、性取向。小偏差在单个数据集可以被放大时大大成百上千的这些数据集在这些算法相结合。

“这些可以诊断医生看不到的东西,比如当一个人可能死亡或检测阿尔茨海默病7年比我们早知道tests-superhuman任务,”高级研究员保罗说,医学诊断放射学和核医学助理教授UMSOM。他也是马里兰大学医疗主任智能成像(UM2ii)中心。“因为这些人工智能机器学习技术是如此擅长发现海里捞针,他们还可以定义性、性别、年龄,这意味着这些模型可以使用这些功能有偏见的决策。”

大部分的大型研究收集的数据往往是意味着他的人相对容易获得医疗保健。在美国,这意味着数据往往倾向于男性和女性,向白人比其他种族的人。美国倾向于执行比世界其他地区的成像,这些数据被编译成算法有可能倾斜的结果。

在当前的研究中,研究人员选择评价中使用的数据集数据科学竞赛中,计算机科学家和医生共同完成数据来自世界各地和尝试开发最好的,最精确的算法。这些比赛往往排行榜排名每个算法以及提供现金奖励,激发人们创造最好的。具体地说,研究人员调查算法,比如那些评价CT扫描诊断脑肿瘤或肺部血栓。23日数据的比赛分析,不包括61%的人口数据,比如年龄、性别或种族。没有比赛的评价对弱势或弱势群体的偏见。

“我们希望通过把意识这个问题在这些数据比赛,如果应用在一个适当的解决这些偏见——有巨大的潜力,”主要作者肖恩·加林说UM2ii中心项目协调人。

该研究的作者也鼓励未来的比赛要求不仅精度高,而且不同群体之间的公平。

”作为人工智能在医学成像模型变得更加普遍和其他医学领域,重要的是确定并解决潜在的偏见,可能会加剧现有的卫生不公平现象在临床护理基本优先级为每个学术医疗机构,“说UMSOM院长马克·t·Gladwin医学博士,副总裁医疗事务,马里兰大学巴尔的摩,约翰·z和作者k·鲍尔斯特聘教授。

更多信息:肖恩·p·加林等医学影像数据科学竞赛应该报告数据统计和评估的偏差,自然医学(2023)。DOI: 10.1038 / s41591 - 023 - 02264 - 0

期刊信息: 自然医学

引用:人工智能在医学成像可以放大卫生不公平现象,研究发现(2023年5月2日)检索3 2023年5月从//www.pyrotek-europe.com/news/2023-05-ai-medical-imaging-magnify-health.html
本文档版权。除了任何公平交易私人学习或研究的目的,没有书面许可,不得部分复制。内容只提供信息的目的。

进一步探索

公平的AI路线图:揭示医学成像偏差在人工智能模型

17股票

反馈给编辑