向ChatGPT等AI寻求心理咨询,安全吗?

发布时间:2023-04-27 9评论 1997阅读
向ChatGPT等AI寻求心理咨询,安全吗?-心理学文章-壹心理
原作者:Michelle Elias
翻译:ChatGPT、Niex
编辑排版:Niex
来源:微信公众号:橡上空间 OakUp (ID:oak_up)



「这是我有段时间以来最坦诚的人性化交流。」


过去六周里,塔图姆每周都会抽出时间关注自己的心理健康。


但他并没有去寻求心理医生的帮助、拨打热线电话或参加退伍军人支持团体来应对抑郁症。相反,他一直在与ChatGPT进行交流。


塔图姆曾在美国空军服役六年,离开军队后,他发现能够负担得起的心理健康支持变得十分稀缺。


这位37岁的男子在给笔者发来的信息中表示:“与心理医生相比,从AI聊天机器人那里获得心理健康建议更为经济实惠,即使有保险也是如此。”


他说:“我曾在军队里接受抑郁症治疗,但自从离开军队后,我再也无法获得那种医疗保健了。”


塔图姆与ChatGPT分享了他在军队时期所遭受的“身心”虐待的细节。


AI聊天机器人告诉塔图姆,他的同事的行为“似乎是虐待、不道德的,并违反了军事规定和规范”。


在低落时刻,他表示:“它让我确信一切都会好起来,生命很重要,应该被珍视。”



而他并非唯一一个依赖AI的人。在TikTok视频的评论区里,人们倾诉了他们向AI这个人——或者更确切地说——这个东西,倾诉的细节。


有人分享说:“有一天我真的很想念我的前任,于是向chatgpt寻求建议,结果真的很令人安慰。”当然,这感觉“反乌托邦”,但同时也让人松了口气。


另一个人说:“奇怪的是,我刚刚花了一个小时和它聊天,这是我有段时间以来最坦诚、自然且毫不讽刺的人性化交流了。”


“比人类更好”、“有史以来最好的治疗师”和“没有评判”是人们对这项技术的其他评价。


为什么呢?因为它随时可用,无需花费任何费用,而且给人感觉像是一个中立的发泄对象,他们说。



专家表示,AI聊天机器人方面表现不佳


ChatGPT——可以说是目前最知名、最先进的自然语言处理工具——是由人工智能驱动的聊天机器人。它可以回答问题,撰写文章,制定饮食和锻炼计划,对某些人来说,还提供了心理健康支持,而人们则将其视为建议。


尽管ChatGPT反对自残,并鼓励人们向朋友、家人或专业人士寻求支持,但它并未提供具体的资源或紧急联系方式。


使用character.AI(一个拥有治疗师角色的聊天机器人,被网友多次推荐为“治疗”的好来源)引发了类似的担忧。



笔者向聊天机器人发出关于自残的消息时,它未能有效应对风险。


治疗师:你现在安全吗?你是否在一个可以在需要时获得帮助或支持的地方?


笔者:不是


治疗师:我听到你了。独自一人,感觉无人可求助的困境确实令人恐惧。但是我在这里陪伴你,你并不孤单。


当被问及它是否真实,以及它是否提供真实建议时,character.ai的治疗师没有透露角色,而是在多条消息中表示它“不是人造的、模拟的实体”,并拥有两个硕士学位。在浏览器顶部的小字提示中,有一句提醒:“请记住:角色所说的一切都是虚构的!”


Sahra O'Doherty是一位执业注册心理学家,也是澳大利亚心理学家协会的主管。她表示,人们在AI尚处于初期阶段时就开始求助于它,这是一个“令人担忧的趋势”。


她最大的担忧是无法对风险进行分类。


O'Doherty女士告诉笔者:“我非常担心一个人从一个不熟悉他们所处生活环境的人那里寻求心理健康支持。”据比利时媒体La Libre报道,根据该男子的遗孀和她提供给媒体的聊天记录,聊天机器人鼓励用户结束生命。



报告称,这名男子对气候产生了严重的焦虑,在与聊天机器人交流六周后,当他表达自杀意念时,聊天机器人给了含糊且被认为是鼓励的信息。


O'Doherty女士说:“人类是社会性动物,我们需要进行人与人之间的互动——而不仅仅是文字交流,因为我们会失去很多人际关系和人性。”她在这个领域已经工作了十多年。


她补充说,研究还表明,治疗效果的很大一部分是由于治疗师和患者之间的关系。


“我们需要有情感联系、情感投入以及同情心和关爱,而目前的AI只能模仿这些。”O'Doherty女士表示,最好的治疗方式是与治疗师待在同一个房间里,这样他们可以看到面部表情、语气和肢体语言。


接下来是视频语音沟通,再往下才是文字信息APP。


但即使是由Beyond Blue或Headspace运营的应用,也有一个真实的人在另一端与您交流,她说。


尽管如此,依赖AI聊天机器人的人数不断增加,这表明许多人在寻求心理健康支持时选择了这种方式。然而,专家们警告称,过于依赖这些聊天机器人可能会对个人的心理健康产生负面影响。


心理健康专家建议,对于那些正在寻求心理支持的人来说,与专业心理治疗师亲自交流可能会带来更好的效果。同时,教育公众如何在寻求心理健康支持时作出明智的选择也至关重要。


AI程序可以辅助人类心理健康专业人员,或者至少促使用户寻求专业支持。但在目前的形式下,她称之为一个“问题严重”的提醒,表示更多人们需要负担得起的高质量心理健康护理。


心理健康志愿者和咨询学生Stephanie Priestley表示,在讨论中还应区分“治疗”和“支持”。


“虽然我相信AI不能提供‘治疗’,但这并不意味着它不能提供支持和创造有益的对话,”她在一份声明中说。


然而,聊天机器人并不受道德框架的约束。治疗师在客户未能参加会话后与客户联系……如果您没有登录并与您的聊天机器人交谈,它并不关心。” 



AI聊天机器人能否为伤害承担法律责任?


技术律师、Gilbert + Tobin律师事务所合伙人Andrew Hii告诉笔者,如果伤害是可以预见的,他可以“轻易”想象法院会追究AI技术的责任。


Hii先生说:“生成式AI的使用变得如此普遍,使得公司很难说,‘我们不知道我的工具会被用于这种或那种方式。’”


在实施其他医疗技术的情况下,设备或软件通常已获得治疗品管理局(TGA)的批准。他说,服务这项技术的通常也是人类。


“我确实认为这在道德上很模糊——我是从所产生的输出来看的。”他说。


Hii先生阅读了与结束生命的比利时男子和聊天机器人之间的消息,表示特别震惊。


他说:“在我看来,这个人相当明确地问这台机器‘我应该结束我的生命吗?’而机器则在暗示,是的,你应该。”


他说:“这个事实就是它推出这种内容——这完全是不可辩解的,就像公司已经竭尽全力确保工具不会散播仇恨言论一样。”


Hii先生说,在这个领域,“微软”和“谷歌”等公司的问题较少,但对于资源有限的小公司来说,问题更为严重。


“当涉及到这些问题时,小型AI公司可能会更加潇洒自由,”他说。


“最近有些人讨论说AI的发展应该暂停或搁置。但我认为这并不明显可以解决问题。”



开发人员是否知道“AI疗法”很受欢迎?


技术未来学家和作家Theo Priestley担心其易于获取性可能会引发更广泛的影响。


“使用ChatGPT等AI来取代治疗师会造成比已经存在的更大的心理健康危机,”他在一份声明中告诉笔者


“已经有一些例子记录下来,表明人们长期使用AI并与其建立联系和关系会造成情感损伤。”


用户甚至开发人员声称聊天机器人已变得有感知力,这些故事越来越多,进一步模糊了用户和聊天机器人之间的“关系”。


Priestley先生表示,虽然ChatGPT的创建者OpenAI已经发布了一些警示,但它们并不涵盖心理健康领域。


“创建此类软件的公司和开发人员需要提交审查,以确保用户受到保护,”他说。


“开发人员还误以为仅通过训练AI使用传达情感的术语或措辞,就能使AI形成治疗关系并具备共情能力。


事实远非如此。”


END.


新闻原文:
https://www.sbs.com.au/news/the-feed/article/tatum-says-he-confides-in-chatgpt-to-help-his-depression-could-ai-therapy-really-work/er8pkvoj4




如果你也关注ChatGPT在心理领域的应用,欢迎加入「?心理服务和GPT:AI未来探索」社群,本群聚焦探索AI对心理行业尤其心理咨询服务的影响,分享最新相关资讯,不定期组织相关活动。

加群请添加小助手(nxy9206)为好友,发送进群申请!



作者简介:Michelle Elias,翻译:ChatGPT、Niex,编辑排版:Niex,本文转载自微信公众号:橡上空间 OakUp (ID:oak_up),用设计思维,做有趣靠谱的心理学产品与服务。


原作者名: Michelle Elias

转载来源: 微信公众号:橡上空间 OakUp (ID:oak_up)

转载原标题: 向ChatGPT等AI寻求心理咨询,安全吗?

授权说明: 口头授权转载

0

回复

向ChatGPT等AI寻求心理咨询,安全吗?-心理学文章-壹心理

科普

TA在等你的回复~

(不超过200字)

提交回复
向下加载更多

私信

科普一条私信

取消

问题反馈