AI大模型当然不能真正和人类共情,这是毋庸置疑的。
AI大模型当然不能真正和人类共情,这是毋庸置疑的。
大模型真正表现出来的情感和价值观,除了预训练所用的大量互联网语料之外,其实主要还是在RLHF阶段对齐的,
——即Reinforcement Learning from Human Feedback过程中,通过监督微调训练SFT和强化学习RL训练,来对齐的人类标注label的价值观。
换句话说,一个只能通过监督微调训练(Supervised Fine-Tuning, SFT)和/或强化学习(Reinforcement Learning, RL)训练,来对齐人类标注的label和价值观的大模型,是不会真正共情的,只有冰冷的规则。
所以这种机制虽然能够在表面上生成看似人性化回复,但并非真正的感情体验,
——更何谈共情。
具体来说,大模型llm的情感获得方式,主要依赖于:
一、pretraining 预训练阶段。
llm通过海量的互联网语料学习语言模式和情感表达的基础模式。这些数据包含了人类的各种情感倾向和价值观,但llm在这个阶段只是被动吸收,未被对齐。
二、RLHF对齐阶段。
通过SFT和RL,模型根据人类标注员提供的dataset 中的labels和进行强化学习过程中,反馈的rewards信号,进行调整。
例如,如果人类标注者认为某条回复更友好,模型就会被优化以更频繁地产出类似的回应。然而,这种调整完全依赖外部输入的冷冰冰反馈信号,而非模型自身的情感判断。
——这种基于label监督信号或rewards反馈信号生成"情感"的方式,注定了大模型无法真正共情。
人类的共情是一种复杂的心理过程,涉及对他人情感的感知、理解和内在共鸣,而大模型llm则严重缺乏主观体验和真实的感情基础。
更进一步地,我们再深入讨论一下。
大模型llm之所以能在对话中表现出一定的情感,实质上是因为其训练过程被设计为尽可能贴近人类的期望结果。通过RLHF,模型学会了如何根据上下文选择"适当"的回应,
例如当用户悲伤时,模型可能会回复"很抱歉听到这个消息",但它并不真正感到遗憾,而是根据训练数据判断这是最合适的回应。
这种基于"冰冷的规则"驱动训练而获得的特性,使得大模型llm在情感交互中,必定始终与人类存在实质上的隔阂。
——于是大模型llm注定可以模仿,却无法真正参与到人类的情感世界中,
人类最好也不要抱有任何期望。
没有评论:
发表评论