AI正在动摇心理健康行业,还是将由此开创文明变革新局?

发布时间:2023-10-12 1评论 2059阅读
AI正在动摇心理健康行业,还是将由此开创文明变革新局?-心理学文章-壹心理
作者:Francesca Minerva,Alberto Giubilini
来源:微信公众号: Later Life 往后余生(ID:New_Later_Life)


过去十年,人工智能在许多专业领域,已经被用来辅助甚至取代人类。


现在有的机器人在送杂货,有的在工厂的装配线上工作,还有人工智能助理安排会议或接听客户服务电话。也许更令人惊讶的是,我们最近开始主动欣赏起了人工智能所生产的视觉艺术——尤其是在色情作品、好莱坞式的工业化产品中,其发展势头如火如荼。


除此以外,人们也开始阅读人工智能所“写”的散文和诗歌(Miller 2019 ),即通过模仿或重组人类作品而创作的文章和诗歌内容。最近,ChatGPT 的发展,展示了人工智能如何在教育(Kung 等人,2023)、司法系统(Parikh 等人,2019)和娱乐业中得到应用。[1]


chat gpt写的诗 | viewlesswings


人工智能最有前途的发展领域之一是医疗保健(Mishra 等人,2021)。多年来,人工智能一直被用来协助诊断患者病情,并被用来寻找最佳治疗方法(例如,参见 IBM Watson)。最近,人工智能机器人已被用来帮助外科医生进行脑部手术(Prabu et al. 2014)。


人工智能正在迅速而有效地执行医疗保健环境中的多项任务,我们过去认为,这些任务是人类的特权。特别是,人工智能在诊断某些疾病方面,似乎比人类做得更好;因为它可以从大量数据集中学习,并比我们更好地识别模式化信息(Loh 2018)。因此,主要与诊断相关的医学领域,可能会比其他领域更早地与人工智能相结合。


医疗市场的需求不断增加,但财政资源有限。利用人工智能为医疗保健管理提供实质性支持的前景,让许多人对改善全球医疗保健、并使其更具成本效益的可能性充满希望。关于其在医学上被成功应用的报道,已出现在科学期刊和流行杂志上。例如,一些研究表明,人工智能在检测皮肤癌(Esteva 和 Topol 2019)或糖尿病视网膜病变(Savoy 2020 )等疾病方面,比人类医生做得更好,有些研究预测人工智能将在几十年内取代人类医疗保健从业者[2]。


假设人工智能能够实现科技界的愿景(我们在本文中认为,这是理所当然的一个重大假设),人工智能将可以为更多的人提供更好的护理。然而,从人类医疗援助转向人工智能医疗援助的成本,却也不容忽视。


用人工智能取代大量人类医生的明显成本之一,是医疗保健的非人性化。治疗师与病人关系的人性维度肯定会被削弱。


人性化服务,通常被认为是医疗保健提供的核心方面的人际互动特征,例如同理心和信任,伴随人工智能的介入,这有可能会消失。当然,这不意味着人工智能服务的预期会低于、或风险会高于人工服务。


然而,医疗保健的某些领域似乎必须要人类的参与,而不能全权委托给人工智能。特别是,人工智能似乎不太可能能够同情病人,与他们的情绪状态相关或为患者提供人类医生可以提供的那种情感联系。很明显,同理心是人类的一个重要维度,很难或者在概念上不可能将其转化为数学公式、编码到算法中。


在某些医疗保健领域,这些因素可能几乎无关紧要。人们可能不太关心与实体(人类或非人类)建立人类间特有的联系对填充伤口空洞或断指手术的帮助。但在精神病学和精神卫生保健等领域,与另一个人的人性化的互动可能是不可替代的,因为它似乎是成功进行精神病学诊断和治疗的主要因素之一。


然而,如果在精神病学中使用人工智能为患者带来了积极的结果,那么,精神病学的非人性化不仅是值得付出的代价——特别是,如果它降低了成本并改善了获取机会;此外,精神病学本质上以治疗师与患者之间的人际关系为基础,这一本质也会受到质疑。


即使有理由对这种观点彻底改变的可能性表示怀疑,但潜在的好处是什么确实还是值得探究的。未来,我们可能会对人工智能在精神病学中的应用所取得的成就感到惊讶,就像 20 或 30 年前,如果有人声称智能手机将成为人类社会中如此重要的一部分,我们也会感到惊讶一样。


01

心理保健


当想到心理保健时,我们大多数人可能会想象一个病人躺在沙发上,向在日记本上做笔记的治疗师谈论他们最近的噩梦,或者他们与母亲的不良关系。


事实上,很长一段时间以来,这一直是精神卫生保健的范例。精神分析自 19 世纪末由西格蒙德·弗洛伊德首次提出以来,一直很受欢迎。行为心理治疗(CBT)自上世纪60年代开始流行。精神分析和行为心理治疗之间当然存在相关差异,但就本文而言,相关特征是它们都涉及与(人类)专业人士进行交谈。这些心理健康治疗方法的本质,是治疗师倾听、理解并常常同情患者,而所提供的人性化的精神体验。


机器缺乏意识和情感,无法与我们产生共鸣,也无法体验人类的情感。


那么,人工智能如何在心理保健方面发挥作用呢?解决这个问题的一种方法,是考虑与其他医疗保健领域相比,更传统的心理健康方法效果如何。人工智能在精神病学中的应用的好处,需要根据人类治疗师和药物干预的表现来评估。如果他们设定的标准相对较低,那么迎接人工智能的挑战可能比人们想象的要容易。


在广泛的“心理健康”问题下,存在着各种截然不同的病症,包括从轻度焦虑症到双相情感障碍,从轻度抑郁症到精神分裂症。我们无法判断人工智能是否可以同样有效地治疗所有不同的疾病,或者只能治疗其中的某些疾病,但人工智能可能至少在某种程度上有助于解决全球日益增长的心理保健需求。


事实上,尽管在使医疗保健更加充分、个性化、以患者为中心、方便和有效方面取得了进展,但精神健康在全球和在地方层面都没有改善。据统计,在全球范围内,不良心理健康状况估计每年造成 2.5 万亿美元的损失,其中包括治疗不良健康状况和生产力损失的费用(Lancet editorial,2020)。


2022 年,《柳叶刀精神病学》发表了一项分析(GBD 2022),依据1990 年至 2019 年的纵向数据,包括 204 个国家,并研究了 12 种精神障碍(various authors 2019 )。根据这项研究,过去二十年中精神障碍的诊断增加了 48%(从 1990 年估计的 6.548 亿例增加到 2019 年的 9.701 亿例)。尽管男性和女性遭受精神障碍的程度相同,但有些精神障碍对女性的影响比男性更大(例如抑郁症、焦虑症和饮食失调),而另一些精神障碍对男性的影响比女性更大(多动症和自闭症)。


在两性中,最常见的情况是焦虑和抑郁。COVID-19 大流行的限制,对全球范围内的精神卫生保健产生了负面影响(通过剥夺人们的社交互动,导致一些人失去收入来源等)(Gao 等,2017)。尽管如此,即使在大流行之前,情况也相当戏剧性。例如,不平等现象依然存在 (Gao et al. 2022, Hansen and Menkens 2021)。在英格兰(McManus 等人, 2016)和美国(Hodgkinson 等人,2017),黑人和低收入家庭的人获得心理保健服务的可能性较小。


总而言之,尽管迄今为止,为患者取得更好的生活,精神病学界做出了所有努力,但进展甚微,而且事实上,情况似乎正在变得更糟。


02

人工智能如何帮助改善心理健康


考虑到全球范围内心理健康状况恶化的担忧,以及人工智能技术在许多其他医疗领域的实施,尝试使用人工智能来解决精神疾病也就不足为奇了。


目前,人工智能已被证明有助于诊断不同类型的精神疾病,并是通常通过人类治疗师无法使用的手段。例如,人工智能可以从各种来源(医疗记录、社交媒体帖子、互联网搜索、可穿戴设备等)访问患者的相关信息,并且可以快速分析和组合所收集的不同数据集。通过识别数据中的相关模式,它可以帮助诊断精神疾病Walsh et al. 2017)。特别是,人工智能已通过三种主要方式用于帮助心理保健[3,即(1)通过“个人感知”(或“数字表型”),(2)通过自然语言处理,以及(3)通过聊天机器人(D'Alfonso 2020)。


个人感知(或数字表型)是使用数字数据来测量和监测某人的心理健康状况。例如,人工智能可以使用社交媒体上发布的材料、医疗记录等。通过分析这些信息,人工智能可以检测到与心理健康问题相关的有关行为变化。如果一个人戴着智能手表来跟踪自己的身体活动,然后突然从非常活跃变成非常久坐,人工智能技术可能会将其视为抑郁症的症状(抑郁症的人经常感到昏昏欲睡,没有动力去锻炼(Brunell 1990))。


自然语言处理算法跟踪对话(聊天、电子邮件、社交媒体帖子)中语言的使用,并检测可能与抑郁或焦虑等心理问题相关的模式。它们还可以用来检测语言的变化,并跟踪患者的心理健康状况,看看他们是在改善还是在退步。智能手机的广泛使用,使得自然语言处理成为追踪心理健康状况的相对廉价的方式[4]。 大多数人都拥有智能手机,并经常使用它们与朋友和家人交流、阅读新闻、在线购物、拍照,有时甚至工作。因此,它们包含了大量的个人数据,这使得它们成为检测与某些心理状况相关的语言模式的方便而实用的工具。


除了自然语言跟踪之外,有人声称,还可以使用智能手机打字模式来检测抑郁症,甚至无需依赖于正在键入的内容(Mastoras 2019,Narziev et al. 2020)。据称,这是因为抑郁症会影响我们移动身体的方式,包括我们打字的方式,因此机器学习可用于检测和识别与抑郁症或其他状况相关的特定模式(例如,人们注意到,打电话或发短信,以及较短的电话,可能是精神分裂症复发的警告信号(Buck et al. 2019))。


最后,一些研究表明,聊天机器人能够像心理医生一样通过提问来检测心理问题(Vaidyam 等人,2019)。聊天机器人可能会询问某人的情绪、压力水平、能量水平、睡眠模式等问题(Denecke et al. 2021)。聊天机器人可以分析患者的答案,并建议不同类型的疗法(包括纯粹的行为改变,例如步行、冥想和放松技巧)或建议寻求医疗建议(如果药物干预被认为是最适当的治疗方式)。


在某些情况下,如果担心患者或她身边的人的直接安全,聊天机器人可以向患者的医生发送警报。智能血糖追踪器已经做了类似的事情:如果血糖监测仪检测到血糖过高或过低,它就会向医疗团队发送警报,以便他们与患者取得联系。


总而言之,人工智能似乎至少有一些潜力作为提供心理保健的有益工具。毕竟,如果人工智能能够达到既定的期望,那么非人性化的医疗服务成本可能是值得的。


这是一个很大的“假设”,我们很高兴对其保持开放态度。然而,即使有人持怀疑态度,鉴于人工智能在包括医疗保健在内的许多专业领域实施的当前趋势,人工智能也可能会得到更广泛的应用。不过,现阶段,仍很难准确预测新技术的进步,将如何改变通过人工智能检测、诊断和治疗精神疾病的现有方式。


我们也不可能判断人工智能是否会改善所有国家的精神卫生保健服务,或者仅在那些资源特别稀缺或精神疾病耻辱感非常普遍的国家。在这里,我们主要关注人工智能是否可能被用于解决精神保健服务中一些长期存在的问题。在下面的段落中,我们将回顾使用人工智能的优点和缺点,以及其对精神保健服务的一些伦理和哲学影响。


03

缺乏自我觉察


人们在遭受心理健康问题时,不寻求帮助的原因之一,是他们往往没有意识到自己的心理健康状况发生了变化(Gilleen et al. 2010 ))。


例如,抑郁症的一些常见症状,如疲劳、头痛和背痛,并不与精神疾病直接相关,它们可能被误解为仅仅是睡眠不足、运动过度或不健康饮食的结果。


在这种情况下,人们可能不会寻求医疗建议,而是尝试使用非处方药进行自我治疗。这些可能至少暂时缓解了身体症状,但无法解决病根。显然,医疗保健从业者对不寻求帮助的人无能为力。然而,基于人工智能的工具,可以帮助人们更加了解自己的心理健康状况,并由此而更热衷于寻求专业帮助。


我们在上面看到,应用程序如何跟踪手机上的打字模式,或者打电话的频率和时长,被认为能够在患者注意到他们需要帮助之前检测到某些精神疾病的发生。此类应用程序可以向用户发送消息,建议他们寻求医疗帮助,因为他们可能患有某种疾病。


然后,医疗保健专业人员可能会评估患者是否确实需要治疗,或者应用程序是否误解了某些行为模式。


因此,监控在线行为模式的应用程序,可以确保尽早检测到某些情况,并且在某些状况下,可以完全获取有关数据以推演实情,例如,当患者缺乏足够的自我觉察来寻求医疗干预时。


数字表型分析的一个明显缺点是,可能会出现很多误报。反过来,这可能会给卫生系统带来不必要的负担,增加成本并降低效率。然而,如果技术足够先进,能够避免误报,那么这个问题就可以避免。


然而,在这种情况下,为了评估人工智能的性能,要问的相关问题不是“它会产生多少误报?”。相反,问题是“这种误报的成本是否超过人类治疗师产生的误报和漏报的成本?”。


正如我们上面提到的,当标准可能设置得足够低时,即使是平庸的人工智能,也足以改善心理保健服务和结果。与过度诊断相关的问题,可以通过开发更好的算法来解决,促进社会层面关于心理健康的对话,也有可能会提高心理健康意识,从而减轻人工智能在误报方面的影响。但目前,这种自我觉察的缺乏,可能会成为寻找治疗方法的障碍,这也表明人工智能可以在自我觉察方面发挥作用(Metz 2018)。


04

社会耻辱与个人隐私


在某些情况下,人们意识到自己患有了精神疾病,并且能够负担所需的心理支持,但由于精神疾病带来的耻辱感而不会寻求帮助(Corrigan 和 Watson 2002 )。一般来说,社会往往更支持遭受身体健康问题而不是心理问题的人,尽管它们都会造成严重的痛苦(NoordgrenBanas 和 MacDonald 2011)。


人工智能可以通过提供帮助来缓解这个问题,而无需患者向另一个人透露他们的问题。


虚拟心理健康治疗师或聊天机器人可以提供心理健康支持,他们还可以提供诊断和推荐治疗。担心社会耻辱的患者,可能会更愿意向人工智能寻求帮助,而不是向全科医生或人类心理治疗师寻求帮助。对于那些严重担心因精神疾病而受到社会侮辱的患者来说,另一种选择可能是在被人工智能治愈和根本不接受治疗两者之间。


然而,对于那些已经内化了这种耻辱感,甚至拒绝与人工智能互动、拒绝人工智能可能给出的诊断和/或拒绝治疗的人来说,人工智能也是没有用的。只有在患者愿意接受自己可能患有精神问题并需要治疗的情况下,人工智能才会有所帮助。但事实证明,渴望在隐私有保障的情况下接受治疗的人数足够多,这足以让人工智能在医疗保健领域的发展变得更有价值。


05

偏好于避免人与人之间的互动


某些情况,例如抑郁症或自闭症,可能会使他们与其他人的互动变得相当具有挑战性。患有抑郁症的人,有时会发现,自己很难离开家去接受医疗评估或去看治疗师。自闭症患者会发现自己与其他人的互动非常困难,尤其是与他们不认识的人。


对于那些难以进行人际互动的患者来说,人工智能可能是比与人类医生进行心理治疗更有用的工具。


根据上述研究,人工智能可以通过应用程序或聊天机器人诊断病情,还可以通过计算机提供支持。例如,患有自闭症的儿童可以使用人工智能生成的视频来接受某些能力教育,然后在他们感到自信和准备好后,在现实世界中测试这些能力。


研究人员还发现,士兵在接受虚拟采访者采访时更有可能谈论创伤后压力,并且虚拟采访者比人类采访者更能从退伍军人那里获取更多医学相关信息(Fiske、Henningsen 和 Buyx 2019 )。


事实上,一些研究表明,此类虚拟治疗师在缓解创伤后应激障碍的症状方面相对成功,这也为Meta的元宇宙的商业化场景打下了坚实基础(Lucas et al. 2017)。机器人治疗师让患者更愿意接受谈话治疗(Fiske Henningsen 和 Buyx 2019)。


当然,我们不能假设所有患者都是如此。在大多数情况下,与另一个人的联系是治疗的重要组成部分。然而,在其他人的存在可能阻碍恢复的情况下,值得考虑使用人工智能。


06

 资源匮乏


患有精神问题的人数逐年增加,其中包括儿童[5]。


然而,全球医疗保健从业人员的数量无法以同样的速度增长,并且已经不足以满足每个人的需求。特别是在中低收入国家,医疗保健从业人员的数量大大低于市场的需求(Gureje 和 Lasebikan 2006;Essien 和 Asamoah 2020)。


西方国家的情况较好,但远未达到理想状态。据世界卫生组织统计,全球精神卫生工作者短缺430万人,预计到2030年,低收入和中低收入国家的短缺人数将达到1000万人[6]。医疗保健从业者似乎也意识到了这种情况,也许这就是为什么一项调查发现,在 22 个国家,大多数精神科医生认为,人工智能是解决人员短缺问题的可能解决方案(Doraiswamy 等人,2020)。


医疗保健从业人员的短缺,可能会对精神疾病的治疗产生负面影响,因为许多需要医疗支持的人将无法获得所需的帮助。正如我们已经看到的,人工智能可以通过智能手机上轻松安装的应用程序,或通过可以辅助心理治疗的聊天机器人,来帮助诊断和治疗患者。


人工智能机器人可能会被编程为,以类似于人类心理治疗师的方式与患者互动。如果存在这样的人工智能,它将能够提出问题(使用电子语音)并理解患者的答案,并且还能够使对话朝着取得某些结果的方向发展。这似乎在很大程度上弥补了治疗师的短缺。


由于人工智能将可供任何拥有智能手机并可以访问互联网的人使用,因此,可以向更广泛的人群保证最低标准的护理,而那些愿意为人类治疗师付费的人,仍然可以选择这样做。


07

效率低下


“传统”心理保健的主要缺点之一是其相对低效。


即使有了诊断,治疗也并不总是足以治愈某种精神疾病。例如,最近的一项研究表明,抗抑郁药相比于其他药物,仅比安慰剂更有效,便引起了广泛关注(Almohammed 等人,2022 )。通常,患者必须尝试多种不同的抗抑郁药,才能找到一种对他们有效且不会引起抑郁症的药物。副作用大于益处(Le Pen et al. 1994)。


在某些情况下,患者可能在找到最佳治疗方法之前就放弃了,因此,他们最终根本没有使用任何治疗方法,从而使病情持续恶化(Demyttenaere et al. 2001)。


目前,我们尚不清楚,为什么某些抗抑郁药对某些人比对其他人更有效。一种假设是,遗传差异,可能会使某些人对某些药物更敏感(Tansey et al. 2013)。有人建议,人工智能可以用来收集对抗抑郁药反应更好的个体的遗传特征信息,然后将患者的遗传信息与最有效的治疗相匹配(Drysdale 等人,2017 )。


人工智能不仅可以为特定患者确定最佳药物治疗,还可以建议最合适的非药物治疗。例如,如果患者的行为或遗传特征或其症状表明,患者对药物方法反应不佳,人工智能可以建议进行深部脑刺激或认知治疗。事实上,机器学习已经可以预测深部脑刺激治疗不同类型精神疾病的有效性(Drysdale et al. 2017)。


抗抑郁药缺乏疗效,并不是让科技界认真对待人工智能潜在益处的唯一原因。


有些精神疾病即使对于专家来说也很难治疗。


众所周知,精神科医生发现,评估患者是否有可能试图自杀特别困难。


根据一项涵盖过去 50 年发表的 365 项研究的荟萃分析,精神科医生在预测自杀方面仅比偶然性发现好一点(Franklin et al. 2017)。研究人员开发了一种算法,声称可以预测某人在未来 24 个月内是否会尝试自杀,并且准确率约为 85%。在一周的时间内,它可以以 92% 的准确率预测自杀企图(Walsh et al. 2017)。


这一结果是通过使用大型数据集、分析医疗记录,以及跟踪社交媒体帖子获得的。因此,在预测自杀方面,同理心和体验人类一般情绪,可能不如获取大量小信息重要,而人工智能可以比人类更好地收集和处理这些信息(Loh 2018 )。


基于抗抑郁药物的治疗的缺点,以及医生在预测患者自杀企图时遇到的困难,不应让我们得出这样的结论:当前的精神保健绝对无效。相反,识别精神卫生保健从业者的困难,可以帮助理解何时以及如何有效地使用人工智能。


使用基因数据识别最好的抗抑郁药物,以及预测是否会发生自杀企图,这些任务,目前人工智能似乎比人类表现得更好。在人工智能可以提高医疗保健效率的情况下,与人工智能相当于或低于人类同行的情况相比,有更令人信服的理由使用它。


08

医疗保健从业者的偏见


公正、客观地对待所有患者,是所有医疗保健从业者的目标。然而,我们人类,包括医疗保健从业者,很容易出现偏袒和偏见,这有时会影响所提供医疗保健的质量(FitzGerald 和 Hurst 2017)。例如,据报道,女性自闭症的诊断不足,可能是因为女性自闭症不太常见,医生往往认为女性的相关症状与自闭症无关(Zener 2019 )。这反过来又提出了一个问题:诊断不足,是否或在多大程度上,可以解释为什么这种情况在女性中不太常见。


年龄、社会地位、种族背景或既往病史等个人和社会因素,可能会误导医生进行诊断。尽管考虑这些因素,通常可以提高诊断的准确性,但过分重视它们,也可能会妨碍诊断的准确性。人类医生可能会发现,很难忽视有关患者的某些信息并只关注症状。


人工智能可以被指示执行不同类型的诊断以做比较分析,例如,一种完全基于症状,另一种则考虑性别、年龄等以及遗传因素或通过使用可穿戴设备收集的信息。此类诊断可以与人类医疗保健从业者的诊断进行匹配和比较,从而有可能为患者提供更准确的诊断,从而更快地康复。


然而,我们必须记住,由人类编程的人工智能,本身也可能存在偏见Parikh et al. 2019),因此了解算法中的潜在偏见并相应调整其分析非常重要。


09

心理健康类别和诊断责任


迄今为止讨论的所有问题,在过去几年中都得到了广泛争论。


人工智能的最新发展,一方面可能会引起担忧和怀疑,但也让我们对使心理医疗保健更加有效和广泛普及的可能性充满希望。在这里,我们想讨论,在人工智能实施之前,需要考虑的两个伦理哲学因素(Giubilini 2021)——假设人工智能实现了它似乎有前途的目标——我们在这里不挑战这个假设,但对它保持怀疑态度是健康的辩证思维。


首先要考虑的是,我们对精神健康障碍进行分类的方式。


《精神诊断与统计手册》目前为第五版(DSM5),也是被使用最广泛的诊断工具。


它对精神障碍进行分类所依据的症状和行为线索,是基于人类的检测和评估能力。这种能力,可以细粒度到一定程度。但如果,人工智能能够提供更细粒度的信息,从而达到预期,例如将言语模式纳入行为线索或症状中,则尚不清楚 DSM 类别是否仍适合其目的。


相反,如果我们认为当前的精神健康障碍类别值得保留,人们可能会得出这样的结论:人工智能不适合其目的。无论采取哪种方法,我们需要根据当前的事态发展,反思当下精神健康分类方法的效力。从这个方面来说,人工智能在精神病学中的,引入可能会给批评 DSM5 精神健康障碍分类方法的广泛文献带来新的视角(Hyman2010)。


第二个考虑因素是,与更广泛的医疗保健相比,人工智能在精神卫生保健领域的使用,赋予了精神卫生专业人员新的责任。也许,医疗保健人工智能文献中讨论最广泛的问题,除了算法的潜在偏差之外,还有错误责任的潜在差距(Mishra et al. 2021;Kieren 2022;Grote and Berens 2020):如果算法犯了错误,人类治疗师有责任纠正它吗?如果没有,那谁才是真正应该去纠正人工智能的人?谁该是负责任的人?我们不会在这里详细讨论这个问题。相反,我们想指出一个关于责任的独立问题,该问题特别会出现于精神保健领域。


在大多数情况下,医疗保健中的人工智能与明确定义的疾病类别有关,例如肿瘤学或心脏病学。当明确且基本不受质疑的疾病分类方法,被应用于错误的情况时,才可能会出现问题。


然而,正如我们所指出的,人工智能可能会引发有关此类类别本身的适用性和意义的问题。错误地应用有效标准(或至少一项被相关专家界广泛承认有效的标准,如肿瘤学类别的情况)与使用可能无效(被承认为)有效的标准做出决策之间存在着巨大的差异。


如果人工智能造成一种情况,我们不能再依赖有效的诊断标准,因为旧标准不再适合目的,那么误诊心理健康状况意味着什么?凭什么可以追究从业者的责任?人工智能在正确诊断的标准方面,引入了一定程度的不确定性,这可能需要重新定义精神卫生保健的责任范围。


从业者在使用人工智能提供的新型数据时,可能需要修改或重新设计精神障碍的分类类别及分类方法。这可能意味着,他们不仅有责任做出正确的诊断,而且有责任在操作时正确修改诊断的标准。然而,现阶段尚不清楚,如何根据新型临床相关信息修改这些标准,因为专业人士不习惯将打字速度或大多数社交媒体内容等,视为与临床相关的事情。


结论


我们应该在精神病学中使用人工智能吗?


关于是否以及在多大程度上,应该在精神医疗保健中,采用人工智能的问题,科技界尚无法回答。


关于其潜在好处和潜在缺点的信息,也因实践有限而缺失太多。然而,如果有充分的理由认为,人工智能优于人类治疗师或可以显着帮助人类治疗师,那么使用人工智能来支持心理保健服务是有意义的。这些主要是我们不打算解决的经验性问题。但我们将提供一些一般性指南,一旦读者获得了更多信息,这些指南可能会对你们此后的职业生涯有帮助。


有几种可能的情况:


事实可能会证明,使用人工智能,可以极大地改善患者的治疗效果,并且缺点相对较少。这是最乐观的情况,因为它将通过以可持续的成本,为大量人提供更好的心理保健,来解决很大一部分问题。


事实证明,人工智能可以极大地改善医疗保健服务,但其缺点也很明显,不值得使用。在这种情况下,人工智能会很有用,但它会太昂贵,或者需要过度使用个人数据,或者会导致从业者过度去责任化等。在这种情况下,只有在这些情况下,收益才会大于成本人类的表现明显比人工智能差,但这种情况可能很难识别。


事实证明,通过人工智能和医疗保健从业者的合作,可以获得最好的结果。人工智能可能永远不会发展出能够使其完全理解患者情绪的人类情感。人类从业者,可能永远无法满足全球范围内日益增长的精神卫生保健需求。最近的一项研究,要求专家将 ChatGPT 和医疗保健从业者提供的答案与在线发布到各个论坛的一些医疗问题进行比较(Ayers 等人,2023)。研究人员发现,专家对 ChatGPT 提供的答案的质量和同理心评价较高,而医生的答案则较短且不太详细。


作者得出的结论是,探索 ChatGPT 在临床环境中的使用将很有用,例如,允许人工智能聊天机器人起草答案,然后由医生检查和编辑。我们可以很容易地想象,如果人类从业者的一些被负担转移到人工智能上(例如,患者病史的初始病史可以由人工智能进行,并且结果可以由人工智能进行),那么卫生系统将如何变得更加高效。


事实可能是,尽管人工智能最初取得了积极的成果,但它并不像我们想象的那样具有成本效益。而且人类在诊断和治疗方面实际上比人工智能更好。除非人类参与,否则医疗保健领域的创新和改进可能是不可能真正实现的。


为了达到现在的水平,我们需要进行一定的试错,但如果将医疗实践交给机器,我们可能会发现,自身缺乏了新的发展,实践经验的减少导致我们整体进步受到阻碍。我们还可能发现,人际关系是医疗保健的重要组成部分,如果患者没有与其他人互动的选择,结果会更糟。我们还可能得出结论,允许人工智能访问有关个人健康的敏感数据会带来我们无法完全理解和预见的风险。在这种情况下,我们需要重新考虑是否在心理医疗保健中使用人工智能。


评论


AI对心理健康行业的影响,可能来自更多元的视角。就如同社交媒体之于心理健康的影响之复杂。


首先,我们需要先明确两件事,一是AI至今无法突破一个边界,即是在其不了解的领域,完全无法开展任何复杂的多元化的工作,而它们从一开始就被设定为是人类某一能力的无穷放大。比如说,GPT再厉害,它也是个语言生成模型,它无法驾驶无人车也无法写一篇真正意义上的论文——当然它可以写相当多的综述,但这和设计不曾存在的可重复性实验毫无关系。模仿和创新是截然不同的事情,GPT在无数的文字排序过程中,永远无法触碰真理的毫毛。


AI再厉害,也无法完全取代人类。而当其能够完全取代人类时,人类也已注定走向了自然灭亡。


在这个大前提下,当我们回望人工智能之于心理健康行业的影响,便会意识到,它们可能是从多角度对全社会所产生的剧烈变革,最终被蔓延至了心理健康行业。因为,相比于争议颇多、伦理繁琐的心理健康产业,能够快速盈利而又生产逻辑明晰的重工、内外科、制药、国家监测系统等领域,更有可能优先发展其AI大模型。


至于社交媒体公司,则是一股独立的特殊力量。他们的AI模型既强大也羸弱,其能否产生巨大的社会影响力,依赖于平台的用户规模和平台的政经力量。Facebook和Twitter前后脚出现,一个走向私域、一个走向公域,但很明显Facebook远比Twitter有影响力,这和扎克伯格长期重视政治经济战略布局不可分割。但即使如此,Facebook也早已发展到了极限,那就是代际差异——任何一代人都需要属于自己的独立的社会空间,社交媒体也不例外。Instagram和Facebook间形成了用户代差。


这意味着,两个平台的人工智能大模型可能已经截然不同,即使它们都有完全相同的设计初衷——注意力经济。


因此,在人工智能大规模进入心理学领域之前,它们在世界上已经形成了数个不同的主体领域,例如社交媒体大模型、自主控制大模型、自然(气候、地质、天文、遗传、行为等)大模型。语言大模型的出现,确实足够石破天惊,因为它在非常重要的自然语言生成领域实现了全新的突破。语言往往被认为最接近人类的智识,可这也并不意味着,现在能够出现一个“精神大模型”,即可以充分地理解人类的精神思想。


实际上,前面的综述所总结的当前社会的主要的心理健康人工智能,多数都是社交媒体大模型和语言大模型的演化产品,内在逻辑就是,因为没有办法直接根据人的精神状态导出相对应的解决方案,因此必须通过间接地分析所获取的信息而进行推演。这样做的直接后果就是,强因果逻辑转化为了弱因果(大概率)逻辑,贝叶斯在这时候绝对吊打亚里士多德,宽泛来说,量子力学思想比牛顿力学思想在精神病学的应用上更好使。


这就是根本性的难题。


神经科学虽然进展迅速,但仍然做不到准确和有效地分析神经活动和行为反应间的关系,令人惊叹的基于人类感知的仿生、拟态产品,是自主控制大模型的衍生品,与精神大模型虽是一步之遥却如天堑之隔。


这也就是为什么,在基础科学没有决定性突破之前(能够建立微观神经活动和宏观现象间的强因果逻辑之前),精神病学和精神大模型,都会永远处于二次论证的困境中,苦苦依求于大概率测试进行诊断和治疗。


但如果,神经科学能够取得这一决定性突破,那么它对人类的影响也一定是文明层次上的。因为,这样的突破意味着,人类找到了意志的开关。


另一方面,是在现阶段情况下,人类能够实现的利用基于大概率逻辑推演模型进行医疗诊断的工具,很可能会对市场所产生的直接冲击——


首先,最重要的,就是监测。


在医学界,没有任何事情比尽早发现疾病更重要的了。现在的人工智能绝对可以做到模糊监测,它甚至根本不需要开发复杂的数学工具和个性化编程,只需要根据现有电子设备数据进行简单计算即可。即使这样计算的结果准确度不高,但仍然能够帮助相当一批人走入医院。


其次重要的,是隐私保护


大模型一旦建构完成(标准是能够根据自主学习信息实现自生无穷尽的逻辑演绎),它的演化速度将是惊人的,Chatgpt带给人们的感受已经足够强烈。


而现在,我们的语言模型已经可以自主生成音视频、自主分析图片内容。虽然这并非是语言模型自生的逆逻辑演化(而是程序员们辛苦写的所谓的逆逻辑代码,事实上,Chatgpt虽然能够进行复杂的逻辑演绎但是却仍然无法做到逻辑推断,推断能力如同鸿沟般,横亘在了人类和AI之间——它源自人类本能的直觉,AI可能永远无法拥有的能力),但是,它已经可以进行更为复杂的“沟通”。


其实,从图灵开始,人类就一直在思考一个问题,那就是,即使AI无法成为人类,但当人类把它们认作同类时,它们还是AI吗?坚定的保守主义者,可以看看猫是怎么看待猫奴的——视为同类。


当一个人需要进行一段对话以求安慰时,难道Chatgpt没有可能在一个限定的时间和内容范围里,提供更有价值的帮助吗?


当然可以!


如果结合上讯飞的智能语音以及它的智能主播形象,虚拟的心理咨询师一定是可以被创造出来的。在大约五年后,Meta和苹果所在尝试互绑的竞争产业——又一个“摩尔定律”、又一对微软英特尔——XR时代降临时(别忘了智能机出现时中国还没有举办奥运会,在此十年前大哥大还在流行,那会儿没人能想到几年后如日中天的诺基亚就会遭遇破产危机),元宇宙也一定会正式成为多数人的玩具——目前玩元宇宙的还是少数富裕玩家。


这种时候,活人咨询师能够提供的是什么?


是真实的相拥,是长久的陪伴、是共同的成长、是共同探索人生的友谊与乐趣,是共同老去的满足与忧伤,是共享的久远记忆。这是AI所永远无法取代的,人与人之间永恒的联结。


同样的,在精神病学领域,遗传大模型、行为大模型和语言大模型,也可以被结合起来,用于长期跟踪分析用户的潜在风险、并提供更为精准的用药方案。但是模型的“学习过程”,应当是由每位精神健康医师和原厂AI基于已有知识的情况下,双方共同实践出来的。而不是完全独立的产品。权限和AI学习都被绑定到个人,才能保证行业实践不被减少、AI避免潜在的标准化危机并实现个性化服务。再有最重要的,避免责任主体的不明。


参考文献:
[1]Almohammed OA, Alsalem AA, Almangour AA, Alotaibi LH, Al Yami MS, Lai L (2022) Antidepressants and health-related quality of life (HRQoL) for patients with depression: analysis of the medical expenditure panel survey from the United States. PLoS ONE 17(4):e0265928
[2]Ayers JW, Poliak A, Dredze M et al (2023) Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum. JAMA Intern Med. https://doi.org/10.1001/jamainternmed.2023.1838
[3]Brunell LF (1990) Multimodal treatment of depression: a strategy to break through the” strenuous lethargy” of depression. Psychother Priv Pract 8(3):13–22
[4]Buck B, Scherer E, Brian R, Wang R, Wang W, Campbell A, Choudhury T, Hauser M, Kane JM, Ben-Zeev D (2019) Relationships between smartphone social behavior and relapse in schizophrenia: a preliminary report. Schizophr Res 208:167–172
[5]Corrigan PW, Watson AC (2002) Understanding the impact of stigma on people with mental illness. World Psychiatry 1(1):16
[6]D’Alfonso S (2020) AI in mental health. Curr Opin Psychol 36:112–117
[7]Demyttenaere K, Enzlin P, Dewé W, Boulanger B, De Bie J, De Troyer W, Mesters P (2001) Compliance with antidepressants in a primary care setting, 1: beyond lack of efficacy and adverse events. J Clin Psychiatry 62:30–33
[8]Denecke K, Abd-Alrazaq A, Househ M (2021) Artificial intelligence for chatbots in mental health: opportunities and challenges. Mult Perspect Artif Intell Healthcare. https://doi.org/10.1007/978-3-030-67303-1_10
[9]Doraiswamy S, Abraham A, Mamtani R, Cheema S (2020) Use of telehealth during the COVID-19 pandemic: scoping review. J Med Internet Res 22(12):e24087
[10]Drysdale AT, Grosenick L, Downar J, Dunlop K, Mansouri F, Meng Y, Fetcho RN, Zebley B, Oathes DJ, Etkin A, Schatzberg AF (2017) Resting-state connectivity biomarkers define neurophysiological subtypes of depression. Nat Med 23(1):28–38
[11]Essien B, Asamoah MK (2020) Reviewing the common barriers to the mental healthcare delivery in Africa. J Relig Health 59(5):2531–2555
[12]Esteva A, Topol E (2019) Can skin cancer diagnosis be transformed by AI? The Lancet 394(10211):1795
[13]Fiske A, Henningsen P (2019) A your robot therapist will see you now: ethical implications of embodied artificial intelligence in psychiatry, psychology, and psychotherapy. J Med Internet Res 21(5):e13216
[14]FitzGerald C, Hurst S (2017) Implicit bias in healthcare professionals: a systematic review. BMC Med Ethics 18(1):1–18
[15]Franklin JC, Ribeiro JD, Fox KR et al (2017) Risk factors for suicidal thoughts and behaviors: a meta-analysis of 50 years of research. Psychol Bull 143:187–232
[16]Gao Y, Bagheri N, Furuya-Kanamori L (2022) Has the COVID-19 pandemic lockdown worsened eating disorders symptoms among patients with eating disorders? A systematic review. J Public Health 29:1–10
[17]GBD 2019 Mental Disorders Collaborators (2022) Global, regional, and national burden of 12 mental disorders in 204 countries and territories, 1990–2019: a systematic analysis for the global burden of Disease Study 2019. Lancet Psychiatry 9(2):137–150
[18]Gilleen J, Greenwood K, David AS (2010) Anosognosia in schizophrenia and other neuropsychiatric disorders: similarities and differences. Study Anosognosia 1:255–290
[19]Giubilini A (2021) The ethics of artificial intelligence applications in mental health care. Toward an ethical “artificial psychiatrist. Notizie di Politeia 37:142: 54–63
[20]Grote T, Berens P (2020) On the ethics of algorithmic decision-making in healthcare. J Med Ethics 46(3):205–211
[21]Gureje O, Lasebikan VO (2006) Use of mental health services in a developing country. Soc Psychiatry Psychiatr Epidemiol 41(1):44–49
[22]Hansen SJ, Menkes DB (2021) What is driving the pandemic related surge in disordered eating? B Med J 374:1
[23]Health TLG (2020) Mental health matters. Lancet Global Health 8(11):e1352
[24]Hodgkinson S, Godoy L, Beers LS, Lewin A (2017) Improving mental health access for low-income children and families in the primary care setting. Pediatrics 139(1):1
[25]Hyman SE (2010) The diagnosis of mental disorders. the problem of reification. Ann Rev Clin Psychol 6:155–179
[26]Kiener M (2022) Can we bridge AI’s responsibility gap at will? Ethic Theory Moral Pract 25:575–593
[27]Kung TH, Cheatham M, Medenilla A, Sillos C, De Leon L, Elepaño C, Madriaga M, Aggabao R, Diaz-Candido G, Maningo J, Tseng V (2023) Performance of ChatGPT on USMLE: potential for AI-assisted medical education using large language models. PLoS Digit Health 2(2):e0000198
[28]Le Pen C, Lévy E, Ravily V, Beuzen JN, Meurgey F (1994) The cost of treatment dropout in depression a cost-benefit analysis of fluoxetine vs. tricyclics. J Affect Disord 31(1):1–18
[29]Loh E (2018) Medicine and the rise of the robots: a qualitative review of recent advances of artificial intelligence in health. BMJ Lead 2:59–63
[30]Lucas GM, Rizzo A, Gratch J, Scherer S, Stratou G, Boberg J, Morency L-P (2017) Reporting mental health symptoms: breakingdown barriers to carewith virtual human interviewers. Front Robot AI 4:51
[31]Mastoras RE, Iakovakis D, Hadjidimitriou S et al (2019) Touchscreen typing pattern analysis for remote detection of the depressive tendency. Sci Rep 9:13414. https://doi.org/10.1038/s41598-019-50002-9
[32]McManus S, Bebbington PE, Jenkins R, Brugha T (2016) Mental health and wellbeing in England: the adult psychiatric morbidity survey 2014Metz R (2018) The smartphone app that can tell you’re depressed before you know it yourself. Technol Rev 15:1
[33]Miller AI (2019) The artist in the machine: the world of AI-powered creativity. Mit Press
[34]Mishra A, Savulescu J, Giubilini A (2021) The ethics of medical AI in the Oxford handbook of digital ethics, editetd by Veliz, C., OUP Digital EditionNarziev N, Goh H, Toshnazarov K, Lee SA, Chung KM, Noh Y (2020) STDD: short-term depression detection with passive sensing. Sensors 20(5):1396
[35]Nordgren LF, Banas K, MacDonald G (2011) Empathy gaps for social pain: why people underestimate the pain of social suffering. J Person Soc Psychol 100(1):120
[36]Parikh RB, Teeple S, Navathe AS (2019) Addressing bias in artificial intelligence in health care. JAMA 322(24):2377–2378
[37]Prabu AJ, Narmadha J, Jeyaprakash K (2014) Artificial intelligence robotically assisted brain surgery. Artif Intell 4(05):1
[38]Savoy M (2020) IDx-DR for diabetic retinopathy screening. Am Family Phys 101(5):307–308
[39]Tansey KE, Guipponi M, Hu X, Domenici E, Lewis G, Malafosse A, Wendland JR, Lewis CM, McGuffin P, Uher R (2013) Contribution of common genetic variants to antidepressant response. Biol Psychiatry 73(7):679–682
[40]Vaidyam AN, Wisniewski H, Halamka JD, Kashavan MS, Torous JB (2019) Chatbots and conversational agents in mental health: a review of the psychiatric landscape. Can J Psychiatry 64(7):456–464
[41]Walsh CG, Ribeiro JD, Franklin JC (2017) Predicting risk of suicide attempts over time through machine learning. Clin Psychol Sci 5:457–469
[42]Zener D (2019) Journey to diagnosis for women with autism. Adv autism 5(1):2–13


作者简介:作者:Francesca Minerva,意大利米兰大学哲学系Alberto Giubilini,英国牛津大学实践伦理学中心。编译与作者:Angelo Wong,传播学学士与教育学硕士。责编:Nathalie Menia,法语语言学士。原文链接:https://link.springer.com/article/10.1007/s11245-023-09932-3,本文转载自微信公众号:Later Life 往后余生(ID:New_Later_Life),专注于自伤自杀干预教育、死亡教育的一小群年轻人。


原作者名: Francesca Minerva,Alberto Giub

转载来源: 微信公众号: Later Life 往后余生(ID:New_Later_Life)

转载原标题: AI正在动摇心理健康行业,还是将由此开创文明变革新局?

授权说明: 口头授权转载

0

回复

AI正在动摇心理健康行业,还是将由此开创文明变革新局?-心理学文章-壹心理

科普

TA在等你的回复~

(不超过200字)

提交回复
向下加载更多

私信

科普一条私信

取消

问题反馈