在Reddit论坛上,许多讨论心理健康的用户都对他们与ChatGPT的互动感到兴奋——ChatGPT是OpenAI的人工智能聊天机器人,它通过预测句子中可能出现的下一个词来进行类似人类的对话。“ChatGPT比我的治疗师更好,”一位用户写道,并补充说,当这个人谈到他们管理思想的挣扎时,该程序会倾听并回应。“在一种非常可怕的方式中,我感觉我被ChatGPT‘听到’了。”其他用户也谈到要求ChatGPT充当治疗师,因为他们负担不起真正的治疗师。
这种兴奋是可以理解的,特别是考虑到美国和全球范围内心理健康专业人员的短缺。寻求心理帮助的人们经常面临漫长的等待名单,而且保险并不总是涵盖治疗和其他心理健康护理。像ChatGPT和谷歌Bard这样的高级聊天机器人可能有助于进行治疗,即使它们最终无法取代治疗师。“在医学领域,没有哪个地方[聊天机器人]能像在心理健康领域那样有效,”国家心理健康研究所前所长、Vanna Health的联合创始人托马斯· Insel说,Vanna Health是一家将患有严重精神疾病的人与护理提供者联系起来的初创公司。在心理健康领域,“我们没有程序:我们有聊天;我们有沟通。”
但许多专家担心科技公司是否会尊重脆弱用户的隐私,是否会编写适当的安全措施以确保人工智能不会提供不正确或有害的信息,或者是否会优先考虑针对富裕健康人群的治疗,而牺牲患有严重精神疾病的人。“我赞赏算法的改进,但最终我不认为它们会解决人们在寻求帮助时所处的更混乱的社会现实,”加州大学旧金山分校的人类学家朱莉娅·布朗说。
关于支持科学新闻
如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻事业 订阅。通过购买订阅,您正在帮助确保关于塑造我们当今世界的发现和想法的具有影响力的故事的未来。
治疗师的助手
“机器人治疗师”的概念至少从1990年就已出现,当时计算机程序开始提供心理干预,引导用户完成诸如认知行为疗法等脚本化程序。最近,像Woebot Health和Wysa提供的那些流行的应用程序采用了更先进的AI算法,可以与用户就他们的问题进行对话。两家公司都表示,他们的应用程序的下载量已超过一百万次。聊天机器人也已经被用于通过管理标准问卷来筛选患者。英国国家医疗服务系统(NHS)的许多心理健康提供者使用一家名为Limbic公司的聊天机器人来诊断某些精神疾病。
然而,像ChatGPT这样的新程序在理解人类问题的含义并以现实的方式做出回应方面,比以前的AI要好得多。这些大型语言模型(LLM)聊天机器人经过互联网上大量文本的训练,可以采用不同的角色,向用户提问,并从用户提供的信息中得出准确的结论。
Insel说,作为人类提供者的助手,LLM聊天机器人可以极大地改善心理健康服务,特别是在边缘化、重病患者中。Insel说,心理健康专业人员的严重短缺——特别是那些愿意与被监禁者和无家可归者合作的人员——因提供者需要花费大量时间处理文书工作而加剧。像ChatGPT这样的程序可以轻松地总结患者的会话,编写必要的报告,并让治疗师和精神科医生有更多时间治疗患者。“通过将文档和报告工作卸载给机器,我们可以将我们的劳动力扩大40%,”他说。
但是,将ChatGPT用作治疗师是一个更复杂的问题。华盛顿大学的计算机科学家蒂姆·奥尔托夫说,虽然有些人可能会对向机器倾诉秘密的想法感到犹豫,但LLM有时可以给出比许多人类用户更好的回应。他的团队研究了危机顾问如何在短信中表达同情心,并训练LLM程序根据那些最有效地帮助人们摆脱危机的人所使用的策略,为写作者提供反馈。
“[治疗]不仅仅是将这些输入到ChatGPT并看看会发生什么,”奥尔托夫说。他的团队一直在与非营利组织美国心理健康协会合作,开发一种基于ChatGPT算法的工具。用户输入他们的消极想法,程序会建议他们如何将这些特定的想法重新构建成积极的东西。到目前为止,已有超过5万人使用了该工具,奥尔托夫说,与提供预设回复的类似工具相比,用户完成该程序的可能性高出七倍以上。
富有同情心的聊天机器人也可能对同伴支持小组(如TalkLife和Koko)有所帮助,在这些小组中,没有经过专门培训的人员向其他用户发送有益的、令人振奋的消息。在1月份发表在《自然-机器智能》杂志上的一项研究中,当奥尔托夫和他的同事让同伴支持者使用富有同情心的聊天机器人制作消息时,他们发现近一半的接收者更喜欢在聊天机器人的帮助下编写的文本,而不是完全由人类编写的文本,并将它们评为同情心高出20%。
但是,让人参与其中仍然很重要。在Koko联合创始人罗布·莫里斯在Twitter上描述的一项实验中,该公司领导者发现,用户通常可以分辨出回复是否来自机器人,并且一旦他们知道消息是人工智能生成的,他们就不喜欢这些回复。(该实验在网上引起了强烈反对,但莫里斯表示,该应用程序包含一个说明,告知用户消息部分由人工智能编写。)莫里斯说,看来“即使我们牺牲了效率和质量,我们还是更喜欢以前存在的人际互动的混乱”。
研究人员和开发心理健康聊天机器人的公司坚持认为,他们不是试图取代人类治疗师,而是补充他们。Woebot Health的首席项目官约瑟夫·加拉格尔说,毕竟,人们可以随时与聊天机器人交谈,而不仅仅是在他们可以预约的时候。这可以加快治疗过程,人们可以开始信任机器人。治疗师和客户之间的联系或治疗联盟被认为是治疗有效性的很大一部分原因。
在对36,000名用户进行的一项研究中,不使用ChatGPT的Woebot Health的研究人员发现,根据用于衡量治疗联盟的标准问卷调查,与人类治疗师的数周时间相比,用户在四天内与该公司的聊天机器人建立了信任关系。加拉格尔说,“我们从人们那里听到,‘我不可能对人类说这些’”,“这降低了风险,减少了脆弱性。”
外包护理的风险
但一些专家担心,这种信任可能会适得其反,特别是如果聊天机器人不准确的话。一种名为自动化偏差的理论表明,人们更倾向于信任来自机器的建议,而不是来自人类的建议——即使它是错误的。荷兰阿姆斯特丹UMC的临床心理学研究员Evi-Anne van Dis说,“即使它是美丽的废话,人们也更倾向于接受它。”*
而且聊天机器人能够提供的建议质量仍然有限。他们可能无法捕捉到人类会认为指示问题的的信息,例如一个严重体重不足的人询问如何减肥。Van Dis担心,如果人工智能程序训练所用的医学文献(可能来自富裕的西方国家)包含偏见,那么人工智能程序将对某些人群产生偏见。他们可能会忽略精神疾病表达方式的文化差异,或者根据用户用第二语言写作的方式得出错误的结论。
最大的担忧是,聊天机器人可能会通过建议某人停止治疗,甚至通过提倡自残来伤害用户。最近几周,国家饮食失调协会(NEDA)因关闭其以前由人工接听的热线而受到抨击,转而使用名为Tessa的聊天机器人,该聊天机器人并非基于生成式人工智能,而是向用户提供脚本化的建议。根据一些用户的社交媒体帖子,Tessa有时会提供减肥技巧,这可能会刺激患有饮食失调症的人。NEDA于5月30日暂停了该聊天机器人,并在声明中表示,它正在审查所发生的事情。
Limbic的首席执行官罗斯·哈珀在谈到尚未为医疗目的而调整的人工智能聊天机器人时说,“就目前的形式而言,它们不适用于临床环境,在临床环境中,信任和准确性至关重要。”他担心,不修改底层算法以纳入良好的科学和医疗实践的心理健康应用程序开发人员可能会无意中开发出有害的东西。“这可能会使整个领域倒退,”哈珀说。
Wysa的临床开发和研究主管Chaitali Sinha说,在政府弄清楚如何监管像ChatGPT这样的人工智能程序时,她的行业正处于一种不确定的状态。“如果你不能监管它,你就不能在临床环境中使用它,”她说。Van Dis补充说,公众对科技公司如何收集和使用用户输入聊天机器人的信息知之甚少——这引发了人们对潜在的机密性泄露的担忧——或者对聊天机器人最初是如何训练的也知之甚少。
Limbic正在测试一款基于ChatGPT的治疗应用程序,它试图通过添加一个单独的程序来解决这个问题,该程序将ChatGPT的回复限制在循证治疗范围内。哈珀说,即使关于底层人工智能程序的法律仍在制定中,卫生监管机构也可以评估和监管这种以及类似的“层”程序,将其作为医疗产品。
Wysa目前正在向美国食品和药物管理局(FDA)申请将其提供认知行为疗法的聊天机器人批准为医疗设备,Sinha说这可能在一年内实现。Wysa使用一种非ChatGPT的人工智能,但Sinha表示,一旦法规变得更加明确,该公司可能会考虑生成式人工智能。
布朗担心,在没有法规到位的情况下,情绪脆弱的用户将被迫自行判断聊天机器人是否可靠、准确和有帮助。她还担心,营利性聊天机器人将主要为“有忧虑的健康人群”——那些有能力负担治疗和应用程序订阅费用的人——开发,而不是为那些可能风险最高但不知道如何寻求帮助的孤立个体开发。
最终,Insel说,问题是某些治疗是否比没有治疗更好。“当存在深厚的联系时,治疗效果最好,但这通常不是许多人发生的情况,而且很难获得高质量的护理,”他说。要培训足够的治疗师来满足需求几乎是不可能的,专业人士和精心开发的聊天机器人之间的合作可以极大地减轻负担。“让一支由掌握这些工具的人组成的大军是摆脱困境的方法,”Insel说。
*编者注(2023年5月26日):这句话在发布后经过编辑,以更正Evi-Anne van Dis目前的隶属关系。