考虑到博士的潜力和陷阱GPT-3'在您附近的诊所中
人工智能自然语言计算机应用程序变得越来越复杂,这增加了他们在医疗保健中扮演更大作用的可能性,包括与患者互动。但是在这些应用进入诊所之前,他们的潜力和陷阱需要周到的探索,并指出NPJ数字医学。
作者是Hastings Center研究学者Diane M. Korngiebel和华盛顿大学医学大学首席研究信息官Sean D. Mooney。
“在AI应用中,有令人信服的希望和严重的炒作自然语言,“ Korngiebel和Mooney写作,指的是Openai的生成预培训的变压器3(GPT-3)和类似技术。该文章破坏了潜力卫生保健应用于三类:不现实,现实,可行,现实但具有挑战性。
不切实际的应用
自然语言AI应用不会取代医生,护士和其他健康护理人员很快与患者交谈。作者写道:“与GPT-3相互作用,看起来(或声音)像与生活,呼吸和善解人意或同情的互动 - 人类不是。”例如,在最近对心理健康咨询的GTP-3测试中,该应用程序支持模拟患者对自杀的表达思想。此外,自然语言AI应用当前反映了涉及性别,种族和宗教的人类偏见。
现实且可行的应用
自然语言应用可以减轻医疗保健提供者的一些常规繁琐任务,例如浏览复杂的电子健康记录。而且,鉴于他们能够进行相当自然的问答交流,这些应用程序可以改善客户服务在线聊天支持,并帮助患者执行非关键任务,例如设置设备以准备远程医疗访问。但是,对于所有医疗保健互动,必须有“严重的护栏”,包括培训申请以消除“有害,偏见或不适当的词汇”。
现实但具有挑战性的应用
GTP-3可用于协助来到急诊科的非关键患者。但是,技术和实施人员的开发商需要注意危害。例如,不“说”患者语言的自然语言应用可能会不适当地分解该患者。作者写道:“实施应包括另一种手段,即那些不能或不希望使用对话代理的患者,这在语言上可能太同质了,无法提供文化上的语言使用。”循环中的人类。”工作人员还需要审查所有分类表格。
本文以确保自然语言应用是公平的建议。从最早的开发阶段,应通过部署和评估参与广泛的利益相关者。并且应该有透明度,包括在使用的数据集中和应用程序的局限性。
“我们应该对复杂自然的潜在应用保持谨慎的乐观语作者写道:“加工应用程序以改善患者护理。”未来即将到来。我们不必担心它,而是应该为此做准备,并准备使用这些应用来使人类受益。”
用户评论