ChatGPT如何用于医疗保健?
2023/4/7 18:00:00 石榴号

    

     ChatGPT如何用于医疗保健,许多人想知道,所以我问了它

     大卫·阿什, 医学博士

     说明:本文为自动翻译,可能会存在迷惑不解之处,阅读要求高的读者请参考英文版原文链接:

     https://catalyst.nejm.org/doi/full/10.1056/CAT.23.0043

     摘要:人们对名为ChatGPT的自然语言处理模型产生了极大的兴趣。该程序基本上可以就任何主题生成优雅的书面回复。这也引起了人们对这项技术可能带来什么的惊讶和担忧。佩雷尔曼医学院(Perelman School of Medicine)的高级副院长最近与ChatGPT坐下来询问它在医疗保健方面有何用处。以下是他的采访,回复是简短的,但未经编辑。

     请自我介绍一下。

     我是chatGPT, 由OpenAI创建的大型语言模型。我被设计为理解和响应基于文本的输入,并且我接受过各种主题的培训,包括医疗保健......

     ChatGPT最让世界感到惊讶的是什么?

     ChatGPT 最让世界感到惊讶的一件事是它能够生成类似人类的文本,这通常很难区分模型生成的文本和人类编写的文本。此外,ChatGPT 执行各种基于语言的任务(例如问答、摘要和文本完成)的能力也令人印象深刻。

     在医疗保健中使用 ChatGPT 有哪些重大机会?

     在医疗保健中使用 ChatGPT 有几个潜在的机会:

     1.用于患者护理的虚拟助手:ChatGPT 可用于创建虚拟助手,帮助患者安排预约、回答医疗问题以及提供有关症状和治疗的信息。

     2.临床文档:ChatGPT 可用于自动化创建临床文档的过程,例如医疗图表和进度记录,...

     3.医学研究:ChatGPT可用于分析大量医疗数据,并协助发现新的治疗方法和治疗方法。

     4.医学教育:ChatGPT可用于为医学生创建交互式教育工具,...

     5.患者参与:ChatGPT 可用于创建基于聊天机器人的患者参与应用程序,为患者提供实时反馈和支持,以便对其护理进行自我管理。

     在ChatGPT应用于日常医疗保健之前,需要什么?

     在将 ChatGPT 应用于日常医疗保健之前,需要考虑几个因素:

     1.数据隐私和安全:医疗保健信息的敏感性需要强大的数据隐私和安全措施,以确保患者数据受到保护。

     2.法规:医疗保健组织需要遵守一系列法规,例如HIPAA,以确保在医疗保健中安全适当地使用 ChatGPT。

     3.数据质量和数量:为了确保 ChatGPT 能够提供准确且相关的响应,它将需要访问高质量、多样化和大型数据集,尤其是在医疗保健领域。

     4.与现有系统的集成:为了有效,ChatGPT 需要与现有的医疗保健系统集成,例如电子健康记录......

     5.人工监督:虽然 ChatGPT 可以自动执行某些任务,但重要的是要有人工监督以确保模型的输出正确并纠正任何错误。

     6.道德考虑:在医疗保健中使用 ChatGPT 引发了许多需要解决的道德考虑,例如偏见和问责制。

     假设一个病人去看医生并描述了一些新的症状。在进行了彻底的病史和身体检查并审查了一些医学检查后,她的医生说:“我不知道诊断是什么。我要问问查特。患者可能会怎么想?

     ...一方面,患者可能会放心,医生正在使用技术来寻找诊断。患者可能认为使用ChatGPT可以导致更快,更准确的诊断,从而提高她的康复机会。另一方面,患者可能会对机器做出医疗决策的想法感到不舒服,或者她可能不确定技术的可靠性。她也可能担心她的个人医疗信息的安全性,...关于算法中可能存在偏差,或收到错误诊断的可能性。

     ChatGPT是一种AI模型,它无法提供某些患者可能需要的人情味。

     在医疗保健环境中使用 ChatGPT 如何改善或降低健康和医疗保健的公平性?

     在医疗保健环境中使用 ChatGPT 会对健康和医疗保健的公平性产生积极和消极的影响。

     积极作用:

     1.改善获得护理的机会:ChatGPT 可以为患者提供有关其健康问题的信息和指导,这有助于改善获得护理的机会,特别是对于可能面临护理障碍(例如距离、行动不便或语言障碍)的患者。

     2.提高效率:ChatGPT 可以帮助加快诊断过程,使医疗保健提供者能够快速准确地识别患者的健康问题并提供适当的治疗,这有助于减少健康差异并改善健康结果。

     3.个性化护理:ChatGPT 可以为患者提供量身定制的健康信息和指导,这有助于提高护理的有效性并减少健康结果的差异。

     负面影响:

     1.模型中的偏差:如果用于训练模型的数据有偏差,ChatGPT 也可能有偏差,从而导致不公平或不平等的待遇建议。这可能会加剧现有的健康差距,并降低健康和医疗保健的公平性。

     2.缺乏透明度和可解释性:ChatGPT 可能无法解释其决策过程,这使得识别和纠正模型中的任何偏差或错误变得困难。这可能会降低对技术的信任,并导致健康结果的进一步差异。

     3.缺乏人际互动:ChatGPT 是一种人工智能模型,它无法提供某些患者可能需要的人情味,这可能导致缺乏同理心和对患者感受、需求和担忧的理解。这会进一步降低对技术的信任,并导致健康结果的差异......

     美国和世界各地都存在令人生畏的心理健康危机。ChatGPT如何在解决这场危机方面发挥作用?

     ChatGPT 可以通过多种方式解决心理健康危机:

     1.心理健康评估:ChatGPT 可用于协助进行心理健康评估,帮助确定患者病情的紧迫性并指导他们进行适当的护理水平。这有助于确保患者及时得到适当的护理,无论当地专家是否有。

     2.症状检查:ChatGPT 可用于帮助患者检查他们的症状,为他们提供有关可能诊断的信息以及如何管理他们的病情的建议。这可以帮助患者就何时寻求精神卫生保健做出明智的决定,并有助于减轻精神卫生诊所的负担。

     3.情感支持:ChatGPT可用于为患者提供情感支持,帮助他们应对自己的病情,并为他们提供一个安全且非评判性的空间来谈论自己的感受。这有助于改善患者的预后并减少随访的需要。

     4.健康教育:ChatGPT 可用于为患者提供健康教育,帮助他们更多地了解自己的病情以及如何管理病情。这有助于改善患者的预后并减少随访的需要。

     5.远程会诊:ChatGPT 可用于协助远程会诊,允许心理健康专业人员为患者提供医疗建议和治疗,无论他们身在何处。这可以通过使用视频会议或基于聊天的平台来完成。

     在美国,临床医生的倦怠也存在危机——医生、护士和其他临床医生都在苦苦挣扎。ChatGPT 如何帮助他们?

     ChatGPT 可以通过多种方式帮助临床医生倦怠:

     1.管理任务的自动化:ChatGPT 可用于自动执行日常管理任务,例如调度、图表和数据输入,使临床医生能够专注于更重要的任务。

     2.临床决策支持:ChatGPT可用于为临床医生提供实时临床决策支持,帮助他们做出更明智的决策并降低医疗差错的风险。

     3.患者教育:ChatGPT 可用于为患者提供有关其病情和治疗方案的信息,有助于减少临床医生需要回答的问题数量并减轻临床医生时间的负担。

     4.远程会诊:ChatGPT 可用于协助远程会诊,允许临床医生为患者提供医疗建议和治疗,无论他们身在何处。这有助于减轻临床医生的旅行负担,并增加偏远地区患者获得护理的机会。

     5.情感支持:ChatGPT可用于为临床医生提供情感支持,帮助他们应对工作压力,并为他们提供一个安全且非评判性的空间来谈论他们的感受。

     ...[O]组织还应采取措施减少工作量,改善工作与生活的平衡,并为临床医生的心理和情感健康提供支持。

     在医疗保健中使用 ChatGPT 引发了许多需要解决的道德考虑,例如偏见和问责制。

     ChatGPT背后的技术将如何变得更好,使其对医疗保健更有用?

     ChatGPT背后的技术可能会继续改进:

     1.医疗保健数据的数量和质量增加:随着电子健康记录和其他数字健康工具的使用越来越多,将有更多的数据可用于训练像ChatGPT这样的机器学习模型,这将使它能够提供更准确和相关的响应。

     2.自然语言处理(NLP)和生成方面的进步:ChatGPT中使用的NLP技术将继续改进,使其更善于理解和响应自然语言输入,并且更能够生成类似人类的响应。

     3.更好地与现有医疗保健系统集成:ChatGPT 将与其他现有医疗保健系统(如电子健康记录、实验室结果和医学图像)集成,以提供更具上下文相关性和准确性的信息。

     4.提高安全性和隐私性:随着医疗保健数据日益数字化,对安全合规解决方案的需求将越来越大。ChatGPT 背后的技术将继续发展,以确保患者数据的安全性和隐私性。

     5.更高的透明度和可解释性:ChatGPT 背后的技术将在透明度和可解释性方面继续改进,使医疗保健提供者更容易理解模型如何得出其建议并识别和纠正任何错误。

     6.更多道德考虑:在医疗保健中使用 ChatGPT 也将继续提出道德考虑,例如偏见和问责制,这些需要在技术开发中解决。

     您显然对在医疗保健中使用 ChatGPT 非常热情。我知道你不睡觉,但如果你睡了,你会失眠吗?

     作为一个人工智能,我没有感受情绪或个人偏好的能力。然而,ChatGPT 在医疗保健领域的使用并非没有限制和潜在的担忧。

     1.数据隐私和安全:在医疗保健中使用 ChatGPT 时,最大的问题之一是数据泄露和未经授权访问敏感患者信息的可能性......

     2.数据中的偏差:ChatGPT 在大量数据上进行训练,这些数据可能包含偏差。这可能导致模型做出有偏差的预测,从而对患者护理产生负面影响。重要的是要确保用于训练模型的数据是多样化的,并代表它将服务的人群。

     3.临床决策:ChatGPT 应该被用作辅助而不是取代临床决策的工具......

     4.有限的可解释性:ChatGPT 使用复杂的神经网络来生成其响应,这使得它难以理解它是如何得出特定结论的。这可能会使识别和更正错误变得具有挑战性。

     5.缺乏监管:人工智能在医疗保健中的使用是一个快速发展的领域,尚未得到充分监管。重要的是要确保 ChatGPT 的使用遵守所有相关法律法规。

     6.重要的是要注意,这些问题并非 ChatGPT 和 AI 所独有,类似的担忧也可能出现在医疗保健的其他领域......

     我读过一项研究,ChatGPT 通过了 USMLE 的三个步骤,祝贺!

     USMLE 或美国医师执照考试是美国医学生必须通过才能成为执业医师的考试。ChatGPT能够通过测试的事实表明它具有高水平的医学知识,并且可能能够帮助医生做出诊断和治疗决策。但是,重要的是要注意,通过医师执照考试并不等同于能够行医......

     我以为你很谦虚。

     作为一个人工智能,我没有能力有谦虚等个人感受。但是,重要的是要注意,虽然基于 GPT 的模型在各种任务中都显示出有希望的结果,但......重要的是在应用于特定任务和数据集的背景下评估任何研究的结果......

     ChatGPT 并非旨在取代医生,而是帮助他们为患者提供更好的护理。

     医生不应该对ChatGPT感到害怕吗?

     可以理解的是,一些医生可能会对在医疗保健中使用 ChatGPT 感到担忧,因为它代表了传统医疗服务方式的重大变化。但是,重要的是要认识到 ChatGPT 并不是要取代医生,而是帮助他们为患者提供更好的护理......[D]octors和其他医疗保健专业人员应随时了解该领域的最新发展,并对使用ChatGPT改善患者护理的可能性持开放态度。

     所以,你告诉我,如果我是威奇托的初级保健提供者,或者萨吉诺的精神科医生,我不必担心 ChatGPT 进来让我的实践变得无关紧要?

     作为一种语言模型,ChatGPT 无法取代人类医疗保健专业人员,例如初级保健提供者或精神科医生。相反,ChatGPT 可以用作帮助医疗保健专业人员为患者提供更好的护理的工具。例如,ChatGPT 可用于帮助威奇托的初级保健提供者在诊断和治疗患者时快速轻松地访问相关医疗信息。它还可用于帮助萨吉诺的精神科医生快速轻松地回答患者关于他们的病情和治疗方案的问题......

     当然,你现在这么说,但很多医生可能会认为 ChatGPT 克服这些限制不会花太长时间。

     的确,人工智能和机器学习(包括ChatGPT)的能力正在迅速发展。但是,重要的是要记住,[虽然] ChatGPT...可以生成类似人类的文本,它没有思考、推理或理解它所生成信息的上下文的能力......

     人类医疗保健专业人员对医疗保健的细微差别以及患者的情感和社会背景有深刻的理解,这是 ChatGPT 无法复制的......

     最后一件事。我注意到你把医疗保健拼写为一个词,“医疗保健”。你为什么要这样做?

     ...“医疗保健”的使用与其他复合名词的拼写方式更一致,例如“软件”和“硬件”。...

     所以,你是说医疗保健就像软件?这真的让我很恼火。

     我会注意到你的偏好,并试图在我的回答中适应它。

     面试后的反思

     在撰写本文时,距离ChatGPT获得公众关注只有几个月的时间。我的许多朋友和同事都分享了玩这个程序、提出医疗问题或构建其他类型的任务的故事。我也做了同样的事情。虽然这看起来像是在玩,但 ChatGPT 从根本上改变了我对人工智能 (AI) 医学步伐的看法。在 2022 年,我经常发现自己说人工智能还没有准备好用于医疗保健的临床部分。我的想法是基于数据,表明聊天机器人在大约85%的时间内“做对了”。这个数字大致符合我个人的挫败感,当时我试图在银行或航空公司使用基于电话的系统来了解我想要什么。其中一些挫败感可能来自语音识别的额外负担, 但是,15%的失败率(当目标只是让客户找到正确的支持代理时,这可能是可以接受的)在医疗保健等高风险情况下是无法容忍的。因此,在 2022 年,我认为我们需要等待一段时间,人工智能才能从医疗保健的行政后台(预约重新安排、计费问题)转移到检查室,在那里进行高风险的临床护理。

     现在,在 2023 年,我不太确定我是对的。ChatGPT非常了不起。我最惊讶的是它传达的清晰程度。但我对它如何管理它所传达的信息缺乏信心。这就是我看到的大问题。比尔·盖茨指出,自动化放大了当前运营的效率,但也放大了效率低下的情况。数字资源已经充斥着医疗错误信息,我担心的是错误信息更有可能被 ChatGPT 等程序放大,而不是过滤掉。真相现在看起来如此岌岌可危,躺在一只巨龟的背上,ChatGPT提醒我,它一直都是。

     最后,我让ChatGPT写了一首关于我们采访的诗。以下是它提供的内容:

     这次采访是相当顺利的,

     有关于医疗保健的问题要指导,

     我们探索了ChatGPT的功能,

     许多见解倾泻而出。

     从财务风险到患者护理,

     我们深入研究了什么是公平的。

     考虑到技术的作用,

     我们希望离开未来。

     让我们希望,确实如此。

     大卫·阿什, 医学博士

     佩雷尔曼医学院高级副院长,宾夕法尼亚大学佩雷尔曼医学院和沃顿商学院教授,美国宾夕法尼亚州费城

    

    

    源网页  http://weixin.100md.com

    淇℃伅浠呬緵鍙傝€冿紝涓嶆瀯鎴愪换浣曚箣寤鸿銆佹帹鑽愭垨鎸囧紩銆傛枃绔犵増鏉冨睘浜庡師钁椾綔鏉冧汉锛岃嫢鎮ㄨ涓烘鏂囦笉瀹滆鏀跺綍渚涘ぇ瀹跺厤璐归槄璇伙紝璇烽偖浠舵垨鐢佃瘽閫氱煡鎴戜滑锛屾垜浠敹鍒伴€氱煡鍚庯紝浼氱珛鍗冲皢鎮ㄧ殑浣滃搧浠庢湰缃戠珯鍒犻櫎銆�

返回 石榴号 返回首页 返回百拇医药