如何影响我作为重症医学医生的实践?
潜在应用、风险和局限性概述
什么是,它是如何工作的?
聊天生成预训练转换器() 是一种非常大的自然语言处理模型,它使用在大量互联网数据上训练的深度学习算法来生成对用户提示的类似人类的响应。它由一家名为的公司开发,并于2022年11月发布。
转换器是一种主要用于自然语言处理领域的架构,旨在解决序列到序列的任务(例如语言翻译,相当于从源语言中的单词序列预测目标语言中的单词序列),同时轻松处理远程依赖关系。它们提供了卓越的答案,同时比以前的方法(如递归神经网络)需要更少的训练时间。简而言之,检查用户作为输入提供的单词,并预测接下来的单词,同时以类似人类的风格生成连贯的响应。它已针对无数语言任务进行了微调,包括文本生成和完成、翻译、情感分析、文档摘要、问答,甚至编程代码的生成和解释。
到目前为止,通过了沃顿商学院MBA考试,法学院考试,美国医师执照考试()等。它在包括重症医学在内的不同专业中的作用已被探索,结果各不相同。的“教科书”知识中有多少仍然适用于“现实世界”的患者还有待证明。
在重症医学中的潜在应用
和大型语言模型(LLM)可能会对重症医学的临床实践产生重大影响(表1)。
支持医疗决策
在ICU环境中,存在高度不确定性且需要快速准确的决策,可以用作美化的搜索引擎,快速提供有关医疗状况,治疗和药物相互作用的信息,提供循证建议,还可以分析(实际)患者数据和预测结局,所有这些都有可能改善患者的结局。
医疗记录的处理
作为专门研究语言问题的人工智能(AI),可以帮助临床医生完成与处理医疗数据和临床笔记相关的许多任务。例如,它可用于组织临床记录,并从非结构化输入数据中编写准确的出院摘要。
医学教育
LLM也可以用作教育工具,医学生或临床实习生通过与AI互动以提出和/或回答临床问题。 清楚地证明了这种在糖尿病中的应用。
生物医学法学硕士需要做更多的工作,为非常具体和技术性的问题提供准确和最新的答案,但它有可能成为一个强大的教育工具,等于或优于从教科书或科学文献中学习。
加强沟通
可用作医疗保健提供者、患者及其家人之间的沟通工具,例如解释或翻译技术信息。总结非专业和专业信息的能力通常非常出色,因此它代表了诊所之间技术交流的机会,以及与患者及其家属沟通的通俗语言。
科学写作
可以协助科学论文的撰写过程,确定研究问题,提供该领域当前状态的概述,并协助完成格式化,语言和内容审查等任务。
使用,免费翻译可以降低成本,方便来自非英语国家的作者获得出版,从而有助于MZ化和知识传播。
大型语言模型的局限性和风险
但是,需要注意的是,是一种机器学习模型,因此,它有局限性,可以有意或无意地以“错误”的方式使用(表1)。
幻觉
坦率地说,(在撰写本文时)不能(完全)信任,因为它的输出可能完全不正确。所谓的“幻觉”现象是指自信地产生看似可信但可能不正确或荒谬的答案的能力。例如,它可能会发明出版物、参考文献或 ID,或撰写有关不存在疾病的病例报告。它不能取代训练有素的医疗保健专业人员的专业知识,其建议应始终根据患者的独特情况进行考虑。
误用
鉴于他们生成逼真的数据的能力,LLM存在许多可能的滥用,包括捏造研究数据或结果以满足资金或出版要求,产生假新闻或错误信息,以及剽窃。这对科学记录的完整性产生了严重影响,因为不仅有可能在出版物中引入错误,还会有抄袭内容的风险。这可能导致未来的研究或卫生政策决策基于虚假信息。
使偏见永久化
这些模型训练了可能带有偏见的现有医学研究,导致人工智能程序冒着使这些偏见永久化的风险。由于大多数科学出版物来自高收入国家,的产出将基于这些国家的证据,其对低收入和中等收入环境的适用性必须受到质疑。
数据隐私和安全
与隐私相关的一个重大问题涉及通过用户提示与共享的数据。当我们要求回答查询时,我们可能会无意中披露敏感信息并将其暴露给公众。由于每个用户提示都已合并到的数据库中,因此它们可用于增强工具的培训,并且可以想象被合并到对其他用户提示的回复中。
工作自动化和更广泛的社会风险
最后,高级LLM是机器学习专家和关键意见领袖所表达的担忧和更广泛的社会风险的来源,呼吁停止训练这些模型。
虽然LLM不太可能取代医生,但如果他们能够通过医学检查,提出鉴别诊断,调查和治疗计划,总结信息并与患者及其亲属进行有效沟通,那么人类医生还能做什么呢?正如生命未来研究所( of Life )在信中所说,“我们是否应该自动化所有的工作,包括那些充实的工作?”。
总结
在ICU快节奏和高压力的环境中,像这样的LLM应该被视为潜在的有价值的工具,以支持医疗和非医务人员的日常活动,教育和研究。重要的是,用户必须意识到这些工具的局限性和潜在的滥用,包括它们产生自信和完全错误的答案或使现有的偏见和不平等永久化的能力。然而,这是一个快速发展的领域,预计LLM的性能,安全性和不确定性意识的(快速)进展。
CCUSG宣传组编辑