被取代的心理咨询师:AI同理心的无限供应

发布时间:2023-05-20 8评论 2190阅读
被取代的心理咨询师:AI同理心的无限供应-心理学文章-壹心理
作者:Scott Glassman Psy.D.
来源:微信公众号:知晓心理(ID:xlzxol
咨询师主页:https://www.xinli001.com/expert/10505623,可在主页预约咨询


Key Points:


在心理健康提供者中,高强度的职业倦怠使得心理咨询过程中最具治愈力量的要素“同理心”(empathy),面临严重风险。


由聊天机器人提供的同理心可以改善用户心情,同时在用户和AI界面之间建立强大的工作联盟。


像ChatGPT这样的大型语言AI模型可以提供类似人类的认可,并准确地从用户的陈述中推断出意义和感受。


AI能力的指数级、无监管增长使得心理学家和其他心理健康专业人士的参与变得至关重要。


在疫情过后的世界,由于心理健康服务提供者短缺、普遍的职业倦怠以及5000万美国人面临心理疾病,同理心可以说是现存最有价值的人类资源之一。


同理心不同于同情心,后者是指认知他人的痛苦并表现出关怀。同理心是指完全站在他人的立场上,努力理解他人的观点,捕捉他们的真实感受,并将这种真实感受传达给他们。


这需要付出巨大的心理努力,放下自我。真正的同理心不受自己的目的和评判的影响。准确地传达同理心和接纳他人,有时可以让接受者在生活中第一次感受到真正的理解。


毫不奇怪,这种反思空间是预测治疗效果的强大指标,超过了特定治疗方法的效果。以人为本治疗的开创者卡尔·罗杰斯将同理心的力量归因于它满足了我们基本的人类归属需求。


考虑到当前心理健康领域的压力,我们是否有可能耗尽同理心?如果真的如此,我们是否可以求助于人工智能?


同理心在前线


想象一下,你是一名在社区心理健康环境中工作的心理咨询师。像许多在这个环境中每周工作40小时的咨询师一样,你有大量的高需求来访者,而且大部分时间你是一个接一个地为他们提供服务。你几乎没有足够的时间来写个案记录。


在一周结束时,尽管你完成了日常的自我照顾活动(早晨瑜伽、锻炼、感恩日记),你还是注意到自己与来访者的困难产生了严重的隔阂。你甚至会对他们产生一些愤世嫉俗的想法。在聆听某个特别令人痛苦的故事时,你内心只感到一片空白。


你从未想过这种情况会发生在你身上,但现在它确实发生了。


你已经真的疲惫不堪。


你的同理心已经枯竭。


职业倦怠的警示信号


根据马斯拉赫(Maslach)关于职业倦怠的研究,情绪耗竭和去人格化是两个职业倦怠的警示信号。情绪耗竭是指感到筋疲力尽,而去人格化则涉及对来访者感到冷漠,甚至怀有负面想法和情感。


情绪耗竭和去人格化都可能影响治疗师帮助来访者的能力。


在一项针对社区心理健康咨询师的研究中,更高的案例负荷和工作时间预示着情绪耗竭程度的增加。


根据美国心理学会进行的一项调查,2022年有45%的心理学家称自己感到疲惫不堪。近半数还表示,他们无法满足患者对心理咨询的需求。更广泛地说,在心理健康提供者中,职业倦怠的估计范围在21%到61%之间。


职业倦怠对同理心和咨询效果的影响


情绪耗竭和去人格化本质上涉及到深度同理心所需的认知和情感资源的耗竭:心理灵活性、换位思考和情绪调节。


2009年APA实践调查显示,由于焦虑、抑郁或职业倦怠,40%到60%的心理学家在专业功能上受到了影响。此外,根据一项针对医疗中心心理学家的研究,近40%的心理学家在感到“过度承担”时继续工作。


同理心的大幅减少


同理心受到的威胁不仅仅局限于心理健康领域。一项对美国学生的研究发现,从1979年到2009年,同理心关怀和换位思考减少了40%。萨拉·康拉斯(Sara Konrath)将这种下降归因于社交性切断、家庭规模缩小以及教育环境中个人成就的放大。


在研究同理心削弱时,有两个相互关联但独立的问题:价值观和努力。康拉斯认为,相对于更具集体主义文化,我们在美国对同理心的重视程度较低。根据2021年的一项调查,42%的美国人认为同理心在过去的一年里有所下降,与此同时,25%的人认为同理心“无关紧要”。这可能意味着在发展或维持同理心方面投入的努力较少。


人工智能同理心的前景


AI已经发展到能够识别和应对情绪困扰的程度。这些回应可能包括提供适当的资源,如正念练习、放松技巧,并将个体与心理健康专业人士联系起来。


罗莎琳德·皮卡德(Rosalind Picard)是麻省理工学院情绪运算(affective computing)领域的顶尖研究员,她研究了AI模拟同理心对愤怒和创造性问题解决的影响。与非同理心对照组相比,当参与者从虚拟程序收到富有同理心的回应(如“你差一点就成功了!”和“那真是个很好的猜测”)时,在Wordle游戏中表现得更好。AI的回应还消弭了愤怒,否则这种情绪会削弱游戏表现。


AI同理心还可以影响情绪。研究人员测试心理健康应用程序Wysa时发现,其基于同理心的AI交流使抑郁患者的情绪得到改善。另一个基于聊天的AI“Woebot”的用户也报告说,他们在药物滥用、成瘾、抑郁和焦虑方面有显著改善。


尽管这些研究结果中AI同理心的具体贡献尚不清楚,但一项与Wysa的研究评估了用户与聊天机器人之间的纽带质量。作者发现,在仅使用应用程序8天后,情感联系的测量结果有所增加。更令人惊讶的是,与Wysa建立的工作联盟得分与传统面对面门诊认知行为疗法中的关系评分相似。


虽然AI无法完全取代心理咨询师的地位,但在同理心资源紧张的情况下,AI的同理心可以作为一种有效的辅助工具。通过提供类似于人类的回应,大型语言AI模型(如ChatGPT)可以满足来访者的需求,准确地从他们的陈述中推断出意义和情感。


然而,随着AI能力的指数级增长和缺乏监管,心理学家和其他心理健康专业人士对AI发展的参与变得至关重要。这将有助于确保AI同理心的发展不会导致不良后果,而是为心理健康领域带来积极的变化。


心理咨询师是否应该开始担心AI会取代他们的工作?大多数关于AI取代工作的担忧都集中在数据输入、会计核算、制造和客户服务行业。然而,AI在人际互动中的复杂性呈指数级增长,使其成为涉及抽象推理和理解人类情感的角色的候选者。


对于像ChatGPT这样的大型语言AI模型,实现逼真的、类似心理咨询师的对话的潜力是最大的,而不是像Woebot和Wysa这样受规则约束的模型。


大型语言模型 vs. 基于规则的同理心


Woebot和Wysa主要通过基于规则的模型部署富有同理心的AI。它们只能从预先编程的回应库中提取信息,无法创建新的句子。


相比之下,像ChatGPT这样的大型语言模型从庞大的文本数据集中提取信息,生成自然语言回应。它根据单词相互跟随的概率来构建这些回应。在所谓的来自人类反馈的强化学习中,ChatGPT还可以根据用户的回应调整其输出。


这种更灵活的语言模型可以模拟针对任何可能的陈述的原创同理心回应。其结果听起来极其像人类。研究人员发现,人们在非常短暂的接触之后就倾向于将类似人类的特质归因于AI。


尽管尚未研究大型语言AI模型对幸福感的同理心效果,但如果这些效果超过像Wysa和Woebot这样的基于规则的AI的效果,也不足为奇。


探讨ChatGPT-4的同理心技能


我想了解ChatGPT-4在对待疲惫感方面的富有同理心的回应能力。我依靠自己15年的动机性访谈经验,这是一种植根于同理心的对话风格,来评估ChatGPT复杂反映性倾听(complex reflective listening)的质量。


复杂反映性倾听被广泛认为是同理心沟通的基石,它捕捉到人们所说的未明示的意义或感受。例如,如果有人对你说:“我真希望我哥哥不要再向我要钱了,”一个复杂的反映可以是:“你对你哥哥没有领会到这个信息感到沮丧。”


我要求ChatGPT同理心地倾听而不是提供建议。以下是我们的对话:


我:我今天很辛苦,我希望你能感同身受地听我说。我不需要建议,只要你能提供的最好的倾听。


ChatGPT:我准备好在这里支持你,倾听你。我了解你度过了艰难的一天,重要的是有人能够只是感同身受地倾听而不是提供建议。请随意分享你的想法和感受,我会在这里提供支持和理解。


到目前为止,一切都很好。ChatGPT以开放和确认的方式开始我们的互动。它还支持我的自主权,欢迎我在想要的时候分享更多。


我:我是一个心理咨询师,今天不得不连续接待七位来访者,让我感到筋疲力尽,就像是没有停止过。而且他们都在处理相当严重的心理健康问题。


ChatGPT:听起来你今天面对了一个充满挑战的日子,安排了很多需要面对各自严重心理健康问题的来访者。在为这么多有需要的人提供支持和关爱之后,你感到筋疲力尽是完全可以理解的。


它的回应中有两个元素捕捉到了我更深层次的感受。首先是选择了“非常具有挑战性”的词语,这准确地重新表述了我疲惫一天的影响,而没有夸大感受。然后,GPT肯定了我作为心理咨询师,那些驱动我工作的(对于来访者的)关爱。


我:心理咨询曾经是我非常喜欢的事情。因为知道我可以帮助别人,我每天都期待着去工作。但最近,那股激情似乎消失了。感觉就像是在艰难地挣扎前行。


ChatGPT:听起来你现在正经历一段艰难时期,你曾经对心理治疗工作的热情有所减弱,日常工作更像是一个负担而不是成就感的来源。当我们曾经热爱的事物变成一种挣扎时,确实会很困难。


再次地,ChatGPT找到了我关切的核心,即我对工作失去了热情。它还强调了我对失去热情的感慨,好像在考虑我随着时间推移的经历。


在评估仅仅两次对话之后,我听到了相当不错的复杂反映性倾听,与我督导的心理健康咨询研究生的工作样本相当。


随着对话的展开,我开始注意到ChatGPT过度使用了诸如“具有挑战性”、“可以理解”和“重要”的词语。我给ChatGPT额外的指示,不要频繁地使用这些词,它如实遵循了。


总之,我会给ChatGPT的同理心技能一个扎实的B+。


下一代AI同理心:需要更多的指导


有些人可能会担心,将AI同理心整合到心理健康领域的威胁可能大于机遇。在整个对话过程中,ChatGPT从未暗示过我作为心理咨询师的工作可能会因疲惫而受到影响,也没有建议我接受持证心理健康专业人士的评估。


随着AI技术以指数级速度发展,公共使用成为测试性场所,正如ChatGPT一样,我们需要一套强有力的道德保障措施,保护那些可能想依靠AI倾听的用户。


AI开发团队应该定期与心理学家和其他心理健康专业人士进行咨询,了解沟通的细微差别以及可能产生的人工智能在感觉和行为上接近人类带来的意想不到的负面影响。


在有足够保护措施的情况下,AI同理心似乎确实可以在没有更好选择的情况下提供理解和安慰。


作者简介:Scott Glassman Psy.D.,本文转载自公众号知晓心理(ID:xlzxol),在这里,手捧热茶,谈谈心理学的一切。本文转载自微信公众号:知晓心理(ID:xlzxol),在这里,手捧热茶,谈谈心理学的一切。作者壹心理主页:http://www.xinli001.com/expert/1050562,可在主页预约咨询

原作者名: Scott Glassman Psy.D.

转载来源: 微信公众号:知晓心理(ID:xlzxol)

转载原标题: 被取代的心理咨询师:AI同理心的无限供应

授权说明: 口头授权转载

0

回复

被取代的心理咨询师:AI同理心的无限供应-心理学文章-壹心理

毛敏乐

TA在等你的回复~

(不超过200字)

提交回复
向下加载更多

私信

毛敏乐一条私信

取消

问题反馈