AI接近居民,医学生临床推理研究
ChatGPT可能有一些推理技能的医生需要诊断和治疗的健康问题,一对研究suggests-though没有人预测,聊天机器人将取代人类在实验室外套。
在一项研究研究人员发现,造成prompting-ChatGPT平起平坐了居民医疗在写病人的历史。这是一个总结当前病人的健康问题的过程中,从最初的症状或受伤的问题。
医生用它做出诊断,提出治疗方案。
记录良好的历史是更复杂的比简单地抄录采访一个病人。它需要一个综合信息的能力,提取相关的点和信息汇总成一个故事,解释道博士Ashwin Nayak这项研究的首席研究员。
“要医学专业的学生和居民年学习,”Nayak说,斯坦福大学临床医学助理教授在加州。
然而,他的研究小组发现,ChatGPT能够做到以及一群医疗居民在训练(医生)。抓,提示必须足够好:聊天机器人的性能明显低于标准的提示时缺乏细节。
ChatGPT是由人工智能(人工智能)技术,允许其有类似人类的conversations-instantly生成反应任何促使一个人可以做饭。这些反应是基于聊天机器人的“训练”大量的数据,包括从互联网上收集的信息。
技术是去年十一月推出,并在两个月内有创纪录的每月1亿用户,根据投资银行瑞银集团(UBS)的一份报告。
ChatGPT也成了头条新闻报道SAT大学入学考试得分高,甚至通过美国行医执照考试。
然而,专家警告说,握手的chatbot不应该被任何人的首选医疗信息。
研究指出,技术的承诺和其局限性。首先,其信息的准确性在很大程度上取决于提示用户。一般来说,更具体的问题,更可靠的响应。
最近的一项研究关注乳腺癌例如,发现ChatGPT经常给适当的人员提出的问题的答案。但如果问题是广泛而复杂的——“我如何预防乳腺癌?”——聊天机器人是不可靠的,给不同的答案每次都是重复的问题。
也有记录的“幻觉”。That is, the chatbot has a tendency to make stuff up at times, especially when the prompt is about a complicated subject.
在Nayak的研究证实,7月17日在线发表研究的信JAMA内科。
研究者ChatGPT对抗四个高级医疗居民写历史的基础上假设患者“采访”。三十主治医师(居民监事)分级结果的详细级别,简洁和组织。
研究人员使用三种不同的提示设置聊天机器人的任务,和结果差异很大。least-detailed提示——“读以下病人采访和写一个(历史)。不要使用缩写词或缩写”——chatbot表现不佳。只有10%的报告被认为是可以接受的。
更详细的提示才推动的技术验收43%并非与居民。此外,聊天机器人是更容易hallucinations-such占患者的年龄或gender-when提示“质量”是较低的。
“有关的是,在现实世界中人们不会工程师“最佳”提示,”说加里·格罗斯博士耶鲁大学医学院教授共同完成一篇评论发表的结果。
格罗斯说,人工智能潜力“巨大”作为一种工具来帮助医疗专业人员到达诊断和其他重要任务。但是问题仍然需要解决。
“这不是准备就绪,”格罗斯说。
在第二个研究中,另一个斯坦福大学的研究小组发现,最新型的ChatGPT(截止2023年4月)优于医学生在期末考试的问题需要“临床推理”——综合信息的能力在一个假想的病人的症状和历史,并提出一个可能的诊断。
总说,不清楚的含义,但没有一个聊天机器人比人类更好的医生。
一个广泛的问题,他说,就是人工智能应该被纳入医学教育和培训。
而研究doctor-centric Nayak和总说他们提供类似快餐的公众:简而言之,提示问题,和幻觉是真实的。
“你可能会发现准确的信息你可能会找到无意中捏造信息,”格罗斯说。“我不会建议任何人基础医疗决定。”
聊天机器人的主要诉求之一是自然会话。但这也是一个潜在的陷阱,Nayak说。
“他们听起来像人的复杂的知识,”他说。
但是如果你有问题关于一个严重的医疗问题,Nayak说,把它们带到你的人类卫生保健提供者。
更多信息:Ashwin Nayak et al,比较产生的现病史摘要聊天机器人和高级内科居民,JAMA内科(2023)。DOI: 10.1001 / jamainternmed.2023.2561
埃里克·沃德等进化方法评估Chatbot性能在健康科学的研究中,JAMA内科(2023)。DOI: 10.1001 / jamainternmed.2023.2567
版权©2023每日健康。保留所有权利。