2025年5月9日星期五

AI 心理咨询师能真正「共情」吗?

AI大模型当然不能真正和人类共情,这是毋庸置疑的。

AI大模型当然不能真正和人类共情,这是毋庸置疑的。

大模型真正表现出来的情感和价值观,除了预训练所用的大量互联网语料之外,其实主要还是在RLHF阶段对齐的,

——即Reinforcement Learning from Human Feedback过程中,通过监督微调训练SFT和强化学习RL训练,来对齐的人类标注label的价值观。

换句话说,一个只能通过监督微调训练(Supervised Fine-Tuning, SFT)和/或强化学习(Reinforcement Learning, RL)训练,来对齐人类标注的label和价值观的大模型,是不会真正共情的,只有冰冷的规则。

所以这种机制虽然能够在表面上生成看似人性化回复,但并非真正的感情体验,

——更何谈共情。

具体来说,大模型llm的情感获得方式,主要依赖于:

一、pretraining 预训练阶段。

llm通过海量的互联网语料学习语言模式和情感表达的基础模式。这些数据包含了人类的各种情感倾向和价值观,但llm在这个阶段只是被动吸收,未被对齐。

二、RLHF对齐阶段。

通过SFT和RL,模型根据人类标注员提供的dataset 中的labels和进行强化学习过程中,反馈的rewards信号,进行调整。

例如,如果人类标注者认为某条回复更友好,模型就会被优化以更频繁地产出类似的回应。然而,这种调整完全依赖外部输入的冷冰冰反馈信号,而非模型自身的情感判断。

——这种基于label监督信号或rewards反馈信号生成"情感"的方式,注定了大模型无法真正共情。

人类的共情是一种复杂的心理过程,涉及对他人情感的感知、理解和内在共鸣,而大模型llm则严重缺乏主观体验和真实的感情基础。

更进一步地,我们再深入讨论一下。

大模型llm之所以能在对话中表现出一定的情感,实质上是因为其训练过程被设计为尽可能贴近人类的期望结果。通过RLHF,模型学会了如何根据上下文选择"适当"的回应,

例如当用户悲伤时,模型可能会回复"很抱歉听到这个消息",但它并不真正感到遗憾,而是根据训练数据判断这是最合适的回应。

这种基于"冰冷的规则"驱动训练而获得的特性,使得大模型llm在情感交互中,必定始终与人类存在实质上的隔阂。

——于是大模型llm注定可以模仿,却无法真正参与到人类的情感世界中,

人类最好也不要抱有任何期望。


没有评论:

发表评论

又一个Newton?短平快!Warden详细交互教程来了

又一个短平快?是否还能续写牛顿传奇?\x0aQ3 TGE!Warden详细教程来了 群里伙伴每天都有人在问Warden 之前因为他们的融资问题,做的号并不多 最近他们嘴撸热度起来些,也有明确的空投预期 这两天顺势加了些号 刚刚重新整理了详细的流程  整体交互不难,只是DC角色...