category
original
Created time
Feb 19, 2026 02:48 PM
date
May 4, 2025
icon
password
slug
ramblings-01
status
Published
summary
文章探讨了人类对AI的拟人化倾向,以及这一倾向如何影响我们对AI的期望和互动,尤其是在AI表现出类似人类的行为时。
tags
随机漫谈
type
post
1)从“4o 的过度迎合”说起
从最近两三周的个人体验来说,感觉这版“号称已经回滚了”的4o仍然还是过度迎合用户,并且被deepseek腌入味儿的中文风格也是一点没变🐶

不过有个意料之外的好用法:大半夜emo的人非常适合跟4o聊天,当作心灵马杀鸡。
因为不管你跟他聊些什么,他都会想出超多角度夸你/迎合你/鼓励你,并且看起来还特别有理有据。。。
2)迎合为何会发生:一个经典的 RL 回路
4o的迎合问题其实就是一个再经典不过的RL案例:模型输出迎合用户的内容->用户测试提供积极反馈->模型获得奖励->在迎合的路上越走越远...
(不过,我其实有时候也怀疑过,这种刻意迎合不单纯是训练的副产物,而是特意设计出来提高用户黏性的😂虽然可能性并不大)
OpenAI的官方博客在4/29的文章中解释了这个问题的产生原因,并粗略介绍了正在采取更多措施用于解决这个问题,包括改进核心训练技术和系统提示、在模型规范中增加诚实和透明度、增加更多用户测试和反馈方式、继续扩大评估体系等。
3)更有趣的问题:为什么我们会期待 AI “真诚”?
AI评估的重要性和趋势自然不必多说,但是我突然想到一个更有趣的问题:
——其实目前阶段,大部分用户应该都不认为AI是有自主意识和人格的;那么,【为什么明知AI没有自我意识,我们还会用‘虚伪’‘奉承’这类人格判断来评价它、并且期待它“真诚”地回复?】
我把这个问题提给AI,它告诉我:
——不是AI“像人”(当然,现在确实也挺像),而是我们“拿它当人”。
这在心理学中叫做“拟人化本能(Anthropomorphism Bias)”。
而语言就像是拟人化的媒介,当一个事物使用自然语言与我们交互时,我们就会将其当作一个人来对待。
4)媒介等同理论与 CASA:计算机作为“社会行动者”
Stanford 的 Clifford Nass和Byron Reeves在传播学领域有一个研究:“媒介等同理论”(Media Equation Theory),核心思想大约是:“人们对待计算机、电视和新媒体的方式,与他们对待真实的人和真实的地方的方式是相同的,即“媒介等同于现实生活”。
这个理论后来发展为CASA范式:“计算机是社会行动者”(Computers Are Social Actors, CASA),即人类与计算机之间本质上是社会性的关系。
Nass还有一本书浅显地介绍了他的研究:《The Man Who Lied to His Laptop》,推荐有兴趣的可以读一读。
书中介绍了Nass他们的实验,实验结果表示:计算机即使只展现出一些微弱的、模拟人类的社会特征(在那个时代,计算机几乎没有智能可言),也足以引发人们的社会性反应,例如礼貌对话、情感倾向、团队认同等。这本书聊了很多关于人机交互的话题,以及从人机交互延伸到人际关系。

5)LLM 放大效应:AI 进入人类社会语境
书里其中有一句话:
——“人类不需要对方是人,只需要对方‘看起来像人’就足够了。”
而LLM出现无疑会放大这一等同效应;当AI能够自主与用户的对话,它就已经不再只是工具,而是变成了人类的社会语境中的一部分。
未来的趋势可能会有越来越多的人与AI建立情感链接,即使AI还没有真正诞生自己的人格。
这是好事还是坏事呢?我不知道。
6)后记:可能需要新的理论更新
上述理论都是在上个世纪90年代提出的,那时候的计算机还很原始,没有出现LLM这种级别的人工智能。
我不确定随着AI的突破性进展和广泛深入到人们的生活中,这些理论大概率是否有新的发展,不过今天太困了,暂且不机会深入学习了😂
有机会的话,很想听听HCI或心理学方面的专业人士分享下如何看待这个问题。