本文综述了科学根据X编辑过程政策编辑器强调了以下属性同时确保内容的可信度:

核查事实的

同行评议的出版物

可信的源

校对

研究概述人工智能聊天机器人如何能被批准为医疗设备

聊天机器人
信贷:Pixabay / CC0公共领域

LLM-based生成聊天工具,如ChatGPT或谷歌MedPaLM有伟大的医学的潜力,但也有固有风险与不使用在卫生保健有关。一个新的自然医学纸由斯蒂芬·吉尔伯特教授和他的同事地址我们这个时代最紧迫的国际问题之一:如何监管大型语言模型(llm)一般来说,特别是在健康。

“大语言模型神经网络语言模型的会话技能。他们产生类似人类的反应和参与互动的对话。然而,他们经常产生高度令人信服的语句可证实地错误或提供不适当的反应,”斯蒂芬·吉尔伯特教授说,其他医疗器械监管科学教授克朗费森尤斯公司数字健康中心你德累斯顿。

“今天没有办法一定质量,证据级别,或临床信息或证据的一致性对于任何响应。这些聊天机器人是不安全工具在医学上的建议和需要开发新的框架确保。"

监管部门批准的大型语言模型的挑战

大多数人寻求之前在线研究他们的症状。搜索引擎在决策过程中发挥作用。即将到来的LLM-chatbots融入搜索引擎可能会增加用户的信心谈话聊天机器人,模拟给出的答案。已经证明llm可以提供极其危险的信息当提示与医疗问题。LLM的基本方法没有模型的医疗“地面实况,”,这是很危险的。

聊天界面的llm已经提供有害医疗反应和已经使用不道德不同意“实验”患者。几乎每一个医疗LLM用例需要监管控制在欧盟和美国在美国缺乏explainability失去资格,他们从“非设备。”LLMs with explainability, low bias, predictability, correctness, and verifiable outputs do not currently exist and they are not exempted from current (or future) governance approaches.

本文作者描述有限的场景llm能找到应用程序在目前的框架下,他们描述开发人员可以寻求创建LLM-based工具,可以批准,他们探索新框架的开发保护病人安全。

“当前LLM-chatbots不满足人工智能的关键原则,explainability像偏压控制系统的监督、验证和透明度。获得他们的位置在医疗医疗设备,聊天机器人必须设计的准确性,安全性和临床疗效证明和获得监管机构批准,”吉尔伯特教授总结道。

更多信息:斯蒂芬•吉尔伯特等大语言模型的人工智能聊天机器人需要批准的医疗设备,自然医学(2023)。DOI: 10.1038 / s41591 - 023 - 02412 - 6www.nature.com/articles/s41591 - 023 - 02412 - 6

期刊信息: 自然医学

引用:研究概述人工智能聊天机器人可以批准为医疗器械(2023年6月30日)检索2023年7月4日从//www.pyrotek-europe.com/news/2023-06-outline-ai-chatbots-medical-devices.html
本文档版权。除了任何公平交易私人学习或研究的目的,没有书面许可,不得部分复制。内容只提供信息的目的。

进一步探索

使用新的介绍伦理框架生成人工智能在卫生保健

28股票

反馈给编辑