本文综述了科学根据X编辑过程政策编辑器强调了以下属性同时确保内容的可信度:

核查事实的

同行评议的出版物

校对

使用新的介绍伦理框架生成人工智能在卫生保健

人工智能的健康
信贷:Pixabay / CC0公共领域

发表的一篇新论文领先澳大利亚AI伦理学家斯蒂芬·勒博士首次提出一个全面的道德框架负责使用,生成人工智能应用程序的设计和治理在卫生保健和医药。

该研究发表在eBioMedicine,详细说明大型语言模型(llm)有可能从根本上改变信息管理,教育,通信工作流在卫生保健和医学但同样保持一个最危险的和误解类型的人工智能。

“llm曾经是无聊的和安全的。他们已经成为令人兴奋的和危险的,”勒博士说他也是澳大利亚首席创新官主要资助者的数字健康研究和发展,数字卫生合作研究中心(DHCRC)和健康联盟成员AI(茶)。

“这项研究是一个呼吁监管生成人工智能技术在医疗保健和医药和为所有利益相关者提供技术和治理指导数字健康生态系统:开发人员、用户和监管机构。因为生成的人工智能应该令人兴奋的和安全的。”

llm的关键组件生成人工智能应用程序创建新的内容包括文本、图像、音频、响应文本指令代码,和视频。突出的例子详细研究中对道德的设计、发布和使用原则和性能包括OpenAI的chatbot ChatGPT,谷歌的chatbot Med-PALM稳定艾未未的图像发生器稳定的扩散,和微软的BioGPT机器人。

这项研究强调了卫生保健和解释了许多重要的应用程序:

  • 协助临床医生和医学报告的生成或preauthorization字母;
  • 帮助更有效地学习;
  • 简化医疗术语clinician-patient沟通;
  • 提高临床试验设计的效率;
  • 帮助克服互操作性和标准化的障碍EHR采矿;
  • 使和设计过程更有效率。

然而,本文还强调了内在的危险LLM-driven生成AI起源于LLM的权威和令人信服地产生和传播虚假,不恰当的和危险的内容以前所未有的规模正日益被边缘化的持续炒作最近发布的最新一代的强大LLM聊天机器人。

一个框架,用于减轻人工智能在卫生保健的风险

作为该研究的一部分,勒博士发现了一组全面的风险因素的特殊相关性利用LLM技术生成的AI系统健康和医学,并提出降低风险的途径。这项研究强调了现实生活,分析用例,道德和不道德的LLM技术的发展。

“好演员选择遵循伦理构建安全生成人工智能应用程序路径。糟糕的演员,然而,想要驱逐反其道而行之:匆忙productizing和释放LLM-powered生成人工智能工具变成一个快速增长的商业市场他们赌博的福祉用户和大规模人工智能和知识数据库的完整性。这种动态需要改变,”勒博士说。

勒博士认为llm的局限性是系统性的,根植于他们的语言理解的缺乏。

“有效知识检索的本质是问正确的问题,和批判性思考的艺术取决于一个探测器响应的能力通过评估他们对模型的有效性。llm可以执行这些任务。他们就是可以缩小浩瀚的所有可能的反应一个提示最有可能的但无法评估是否提示或响应或上下文适当有意义,”勒博士说。

因此,他建议增加训练数据大小和构建更复杂的llm不会降低风险而放大。研究提出替代方法道德(重新)设计生成人工智能应用程序,形成监管框架,指导技术研究努力探索的方法实现和执行道德设计和使用原则。

勒博士提出了一个监管框架与10的原则生成AI减轻风险的健康:

  1. 设计人工智能作为一个辅助工具,增加人决策的能力,而不是取代它们;
  2. 人工智能设计,开发出性能、使用和影响指标解释何时以及如何使用人工智能辅助决策和扫描潜在的偏见,
  3. 研究目标用户群体的价值体系和设计人工智能坚持;
  4. 声明的目的一开始就设计和使用人工智能的概念或开发工作,
  5. 披露所有训练数据来源和数据功能;
  6. 设计AI系统清晰和透明标签任何AI-generated内容等;
  7. 持续审计AI对数据隐私、安全和性能标准;
  8. 维护数据库记录和分享AI审计的结果,教育功能,用户模型的局限性和风险,提高性能和可信赖的AI系统培训和重新部署更新算法;
  9. 适用公平工作和安全的工作标准人类开发人员使用;
  10. 建立法律优先级定义的情况下数据可以用于训练人工智能,并建立版权,责任和问责制框架管理训练数据的法律依赖AI-generated内容,决定人类使使用这些数据的影响。

“没有人监督,指导和负责任的设计和操作,LLM-powered生成人工智能应用仍将是党技巧与大量潜在的或有害的和不准确的内容创建和传播错误信息以前所未有的规模,”勒博士说。

他预计,这一领域将从当前竞争LLM军备竞赛更微妙的阶段和对风险高度敏感的实验research-grade生成人工智能应用于卫生、医药和生物技术将提供第一个商业产品中寻找利基应用数字健康数据管理在未来2年。

“我启发思考变革作用生成AI和llm可能在卫生保健和医药的一天,但我也敏锐地意识到,我们绝不是然而,尽管流行的炒作,LLM-powered生成AI可能只获得临床医生和患者的信任和认可,如果同等水平的研究和开发社区的目标是这个转型过程中道德和技术完整技术市场成熟。”

“DHCRC翻译伦理AI付诸实践的关键作用,”DHCRC总裁安妮特Schmiede说。“有一种新发现的热情转化生成人工智能的作用和我们正处于一个转折点,AI将开始变得越来越集成到数字健康生态系统。我们在本文中概述的前线和框架将成为关键,确保一个伦理和安全使用的人工智能。”

“道德AI需要一个生命周期方法从数据管理模型测试,持续的监控。只有有了正确的指导方针和护栏,我们才能确保我们的病人受益于新兴技术同时最小化偏差和意想不到的后果,”医学博士约翰·Halamka说,M。年代,总统梅奥诊所的平台和茶的创始人之一。

“这项研究提供了重要的伦理和技术指导用户、开发人员、供应商,和监管机构生成的人工智能,并鼓励他们负责任和集体准备转型这一技术在健康和医学可能发挥的作用,”布赖恩说安德森医学博士首席数字医疗医师横切。

更多信息:Stefan大厦,注意力不是你所需要的:复杂的伦理在医学及卫生保健使用大型语言模型,eBioMedicine(2023)。DOI: 10.1016 / j.ebiom.2023.104512

期刊信息: EBioMedicine

由数字医疗合作研究中心提供
引用:新介绍伦理框架使用生成的人工智能在卫生保健(2023年5月16日)检索2023年7月20日从//www.pyrotek-europe.com/news/2023-05-paper-ethics-framework-generative-ai.html
本文档版权。除了任何公平交易私人学习或研究的目的,没有书面许可,不得部分复制。内容只提供信息的目的。

进一步探索

解决大型语言模型的伦理困境的责任

54股票

反馈给编辑