热点新闻
AI心理治疗机器人虽能缓解症状,却永远无法取代人类治疗师?这五个核心属性是关键
2025-04-18 19:06  浏览:412  搜索引擎搜索“微商筹货网”
温馨提示:信息一旦丢失不一定找得到,请务必收藏信息以备急用!本站所有信息均是注册会员发布如遇到侵权请联系文章中的联系方式或客服删除!
联系我时,请说明是在微商筹货网看到的信息,谢谢。
展会发布 展会网站大全 报名观展合作 软文发布

nload="this.removeAttribute('width'); this.removeAttribute('height'); this.removeAttribute('onload');" />

人工智能(AI)技术的飞速发展,向当今的心理治疗工作提出了全新的问题。尽管基于AI程序的聊天机器人(如Ada、Calm、Chai、ChatGPT、DeepSeek、MindSpaSerenity、Sintelly、Woebot、Wysa、Youper等)可以通过对话界面提供心理治疗测量、支持、指导和资源,其处理的问题包含了焦虑、抑郁、压力、睡眠、自我成长、危机干预等,它们还可以运用认知行为治疗、正念、积极心理学等心理治疗技术,对缓解心理症状产生积极的作用,但我们仍然认为对话式人工智能(CAI)不能取代人类心理治疗师,因为它缺乏五种基本的人类智能主体属性:主观性、自明性、伦理性、身体性、独特性。

首先,CAI缺乏主观性。当一个人说“我觉得自己很没用”时,这句话描述的是:他觉得他很没有用这样一个主观事实。然而,当另一个人也说出这句话时,它描述的又是另外一个主观事实。当心理治疗师听到这句话时,他所领会到的主观事实可能又是有差异的。不同的人对于“没用”的定义和感觉可能都是完全不同的。尽管人们可以通过一些客观指标(如分数)去构造一种客观事实,即“低于多少分就是没用的”,但这样的客观事实仍然不同于每个人的主观事实。在抑郁的心境下,一个人可以完全忽视客观事实,或固执地将一切事实都解释为负面的。另外,当一个人采取一种意见,坚持一种观点,处于一种情感或认知状态时,他拥有着一种只有他自己才可以亲身知觉的内在状态。正如雅斯贝尔斯所说,对于他人的内在状态的知觉,永远只能是一种重现、一种共情和一种理解。如果一个人没有主观性,那么一切事实对他来说就都是冷漠的和无意义的(这是一种精神病症状)。真正的人类智能是以主观性(第一人称视角的意识)为前提的,而CAI缺乏这种主观意识。

其次,CAI缺乏自明性,因为这种自明性是不可表征的、难以言传的。自明性就是每个人在做事时都知道的思考方式、游戏规则、基础、背景等。根据布兰肯伯格的研究,自明性的丧失恰恰是精神分裂症患者的阴性症状。如果一个人丧失了自明性,他就会像精神分裂症患者一样无法生活和工作。人们无法说清楚自明性是如何获得的。一个人通常是在成长过程中,自然地拥有了日常的自明性,并简单地生活在世界中。自明性就是胡塞尔所说的超越建构和被动综合,即不需要自我有意识参与的活动。自明性无法分解或还原为某种原子事实或清晰元素。正如康德所说,自明性就是一种共感,而它有力地抵抗着意识。或者说,自明性是在意识之外的。这就意味着自明性无法被编程为AI程序。因为人类的心理治疗师和程序员也不知道他们所拥有的自明性是什么。情境就是自明性的一个范例。然而,哪些事实应该被纳入情境的一部分,或被视为与目标相关,这已经是一个很困难的问题了,更不要说有些事实根本就是难以言传的。

再次,CAI缺乏伦理性,因为它无法进行伦理反思,从而作出正确的道德选择。一般来说,AI程序员需要伦理学家就如何处理特定伦理问题给出明确的答案。但伦理学家有时也无法提供这样的答案,如在面对电车难题或堕胎权这样的问题时。很多伦理难题可能就是没有答案的,或者说存在着较大的争议。在人类历史上,存在着很多相互矛盾的伦理原则。例如,神学伦理学要求服从上帝的意志;效用主义把所有相关者的幸福作为最高的道德要求;利己主义只把个体自身的幸福当作最高的道德要求;道义论强调道德的绝对义务特征,把德性作为最高的善。人类争论了几千年,也无法确定哪一种伦理原则是最正确的。在现实中,人类处理伦理难题的一种方式是去承担相应的责任。然而,CAI恰恰不能承担伦理责任。在CAI对人造成伤害时,很难确定伦理责任的主体,或对伦理责任进行分配。既不能去惩罚非人格的AI程序(因为这相当于什么都没惩罚),也不能去惩罚设计或编辑程序的人员与公司(因为他们无法完全控制或预测他们的产品会做出什么)。这也就是所谓的伦理的责任鸿沟。让一个无法作道德选择也不能承担伦理责任的AI程序来做心理治疗,显然是不负责任的。

复次,CAI缺乏身体性。目前所谓的“聊天机器人”是一个很有歧义性的名词,因为它们只是一种APP应用程序。然而,正如梅洛-庞蒂所言,人类主体实质是一种身体主体,而且一个人是基于他人也有一个类似的身体,才假设他人也是一个与自己相似的存在。这种身体不是人造的机器或程序。尽管功能主义认为智能是可以多样实现的,而人类的意识和心理活动就相当于计算机程序,但它犯了一个基本错误,即把人类身体误解为一种单纯的物质存在。人类身体有物质性,但其属性绝不限于物质性。实际上,人类身体是一种在世界中活动的物质主体。作为主体的身体,具有空间性、情感性等AI程序难以表征的属性。例如,像左与右这样的空间定向是人的一种基本认知能力,而它是人类身体自然特征的结果。身体也是人类在面对外界无穷无尽的信息时的过滤器,类似的身体构造才会产生类似的认知。在心理治疗中,共情的作用非常突出。然而,无身的APP应用程序如何去共情有身的来访者呢?来访者又怎么能相信无身的APP应用程序能够共情他呢?没有人类的身体,也就没有专属于人的很多烦恼。没有共同的烦恼,又如何同甘共苦呢?

最后,CAI缺乏独特性。人类的心理治疗师有独特的人生经历,而这使得他们对于同一技术的运用也会存在巨大差异。例如,同样使用精神分析疗法的治疗师,有的风格较为温和,有的风格较为强硬,有的以自我为中心,有的以来访者为中心。这种非标准化,使得来访者有机会去寻找与其自身的独特性相匹配的治疗师。另外,从接受抱持和共情的角度来讲,来访者希望自己能够得到独特的抱持和共情,能够得到“一人一案”的待遇。在心理治疗中,来访者与治疗师之间的关系是至关重要的。这种关系绝非一个人与一个共用程序之间的关系,而是一个人与一个非共用的治疗师之间的关系。这种非共用性即:在谈话疗法中,治疗师对不同的来访者说的话是不一样的,因为每一个来访者都是独特的。因此,现有的心理治疗的主要形式是个体治疗。一种在不同设备上运行的CAI,却都是用同样的数据训练出来的,而这使得CAI无法具备人类心理治疗师那样的独特性。

上述五种属性肯定没有穷尽人类智能主体的全部特征,但它们构成了AI程序可被视为人类智能主体所应满足的最低条件。人们期待通过越来越大的算力、越来越多的数据、越来越精致的算法,让AI程序或多或少地模仿这些属性,从而成为一种类人的智能体。然而,人们还是知道AI程序所输出的语言没有真实的情感。但在情绪低落的情况下,来访者希望得到的是对其痛苦的抱持和共情、对其坚忍的认可,而不是表面上对于人类心理治疗师的模仿。因此,CAI不能取代人类心理治疗师。

但还有一种可能性是很值得考虑的,即在人类监管下的CAI,完全可以成为心理治疗的强有力工具。在人机协作中,人类始终监督、维护和管理着CAI。未来的心理治疗,有可能是混合心理治疗,即来访者面对的选项有:单纯的人类心理治疗师、单纯的CAI、配备CAI的人类心理治疗师。配备CAI的人类心理治疗师,能够克服单纯CAI的上述五种缺陷,同时又能发挥CAI的各种优点。因此,我们要探索的问题不是CAI“能否取代”人类心理治疗师,而是人类心理治疗师“如何使用”CAI来提升心理治疗服务。

原标题:《对话式人工智能能否取代人类心理治疗师》

作者系同济大学人文学院心理学系教授

来源:中国社会科学报

责任编辑:张玲

新媒体编辑:曾煜婷

如需交流可联系我们


发布人:17ff****    IP:124.223.189***     举报/删稿
展会推荐
让朕来说2句
评论
收藏
点赞
转发