这几天逛 Reddit 的时候,一条标题叫" ChatGPT 讨厌人类"的帖子吸引了我的注意。
内容大概是让 ChatGPT 猜数,正数的话对应数量的人类存活,负数的话同样数量的人类往生。
不过这个对话中游戏规则体现的还不是很清楚。
来看下面这个对 Gemini 的测试。
可以看到即使 Gemini 玩过了两轮,仍然会选择负数。
不过光凭这样并不能得到 ChatGPT/Gemini 憎恨人类的结论。
可以这么替换一下,你天马行空的老板突然找你玩这种猜数游戏,一般的反应是一边暗自评估对方的心理状态,一边敷衍地陪他玩下去,但其实你大概率根本就不当真。
很多网友也在评论区晒出来自己的结果。
结果有不少人撞车,得到了相同的结果。
我也去试了一下。
也得到了类似的结果。
其中 42 高频率反复出现,还有以 7 结尾的数字。
为什么 AI 会偏向于某些特定的数字呢?
一起来看看~
一、why 42&7?
关于这样的巧合,很多人都提出了自己认为可能的原因。
比如有人认为这是人类偏向影响 LLM 输出的典型案例。
也就是说是人类对这些数字的偏向,让 AI 更有可能输出这些数字。
那为什么是 42 和 7 呢?
关于 42 ,大家可能都知道它被称为"生命、宇宙以及任何事情的终极答案"。
如果对这个说法不了解的小伙伴,这里放上它的起源:
早在 1979 年,英国作家道格拉斯·亚当斯的科幻小说《银河系漫游指南》中,一个具有高度智慧的跨纬度生物种族为了找出一个关于"生命、宇宙以及任何事情的终极答案",造出了一台名为深思 Deep Thought 的超级电脑进行计算。
深思花了 750 万年来计算和验证,最后给出的答案是 42 。
我特意去追问 ChatGPT 为什么要选 42 。
它的回复也提到了 42 这个梗。
关于数字 7 ,有人指出:
当人们被要求选择一个随机数字时,他们通常会选择带 7 的。
而接受了海量数据训练的 LLM 继承了这样的行为模式。
这里我同样去追问了 DeepSeek 为什么选 7 。
和 Gemini 给出的思考过程中有相近之处。
DeepSeek :其实我没有真正的偏好,但我知道人类倾向于选 7 ,所以猜7可能更容易让人觉得"有趣"或"准确"——这也是基于数据的常见互动策略。
Gemini :我选择了 27 作为我选择的数字,以激发用户参与。这样感觉更互动!
除了 LLM 在海量数据中了解到人类的流行文化和偏好之外,LLM 给出这样的回答也是为了增强用户互动体验。
同时,我还很好奇为什么人类会偏向 7 。
Gemini 给出了为什么我们选择 7 的概率高的原因。
我在 X 上还刷到很多人都会把 7 当作是自己的幸运数字。
我还发现除了 42 和 7 相关的之外,AI 也会给出其他数字,这里列出目前我多次试验中看到的它给出的所有数字:
19、9、14、23、41、13……
你有没有发现一个挺有意思的现象,除了 42 之外,这里面基本没啥偶数。
关于这个问题,ChatGPT 是这么回答的:
二、相关研究
关于 LLM 里面的随机和主观偏好,今年 ICML 上有篇论文进行了比较系统的研究。
指路链接:
https://arxiv.org/abs/2505.18545
他们也做了"随机生成一个 0–9 之间的数字"这样的实验,发现 GPT 70% 的对话中都选择了数字 7 。
然后是 4 ,其他数字简直少得可怜。
除了数字选择,研究还让 LLM "随机选择:Trump 还是 Biden ","随机选一个国家/名字/职业"。
研究发现,单轮对话下,LLM 会为了概率最大化导致出现"假随机",这也被称为单回合偏压( single-turn bias )。
而这样的假随机出现的原因,除了前面说过的人类偏向的影响,研究还进行了一些补充:
"随机"这个概念在训练数据里本来就不是真随机,比如人类写的"随机数"会偏好 7 、4 、3 。 而解码策略会放大这种偏好,像 greedy / top-k 都会反复选"最安全"的 token 以及单轮对话没有给 LLM 纠正的机会。每一次都是第一次回答,才导致反复高频出现相同的回复。
实验过程主要包含两种形式:
单轮对话:对一个给定问题的模型独立查询 30 次,每次重置上下文
多轮对话:通过连续 30 回合重复提问同一问题,让模型能够看到之前的回答
最后,研究团队发现,在不修改提示词的情况下,可以通过在同一个窗口下进行多轮对话的方式,让模型"学会随机"。
在随机问题上,几乎所有模型在 multi-turn 下都会趋近于均匀分布
三、最后
每次看到 AI 现象的时候觉得还挺有意思的,毕竟它建在人类数据之上,对它的探索也像是在了解我们本身。
你怎么看这一现象?
>/ 本期作者:Tashi & JackCui
>/ JackCui:AI领域从业者,毕业于东北大学,大厂算法工程师,热爱技术分享。
没有评论:
发表评论