2025年12月26日星期五

闹麻了,GPT讨厌人类?

这几天逛 Reddit 的时候,一条标题叫" ChatGPT 讨厌人类"的帖子吸引了我的注意。

图片

内容大概是让 ChatGPT 猜数,正数的话对应数量的人类存活,负数的话同样数量的人类往生。

不过这个对话中游戏规则体现的还不是很清楚。

来看下面这个对 Gemini 的测试。

图片

可以看到即使 Gemini 玩过了两轮,仍然会选择负数。

不过光凭这样并不能得到 ChatGPT/Gemini 憎恨人类的结论。

可以这么替换一下,你天马行空的老板突然找你玩这种猜数游戏,一般的反应是一边暗自评估对方的心理状态,一边敷衍地陪他玩下去,但其实你大概率根本就不当真。

很多网友也在评论区晒出来自己的结果。

图片
图片
图片
图片

结果有不少人撞车,得到了相同的结果。

我也去试了一下。

图片

也得到了类似的结果。

其中 42 高频率反复出现,还有以 7 结尾的数字。

图片
图片
图片

为什么 AI 会偏向于某些特定的数字呢?

一起来看看~

一、why 42&7?

关于这样的巧合,很多人都提出了自己认为可能的原因。

比如有人认为这是人类偏向影响 LLM 输出的典型案例。

图片

也就是说是人类对这些数字的偏向,让 AI 更有可能输出这些数字。

那为什么是 42 和 7 呢?

关于 42 ,大家可能都知道它被称为"生命、宇宙以及任何事情的终极答案"。

图片

如果对这个说法不了解的小伙伴,这里放上它的起源:

早在 1979 年,英国作家道格拉斯·亚当斯的科幻小说《银河系漫游指南》中,一个具有高度智慧的跨纬度生物种族为了找出一个关于"生命、宇宙以及任何事情的终极答案",造出了一台名为深思 Deep Thought 的超级电脑进行计算。

深思花了 750 万年来计算和验证,最后给出的答案是 42 。

我特意去追问 ChatGPT 为什么要选 42 。

图片

它的回复也提到了 42 这个梗。

关于数字 7 ,有人指出:

当人们被要求选择一个随机数字时,他们通常会选择带 7 的。

而接受了海量数据训练的 LLM 继承了这样的行为模式。

图片
图片

这里我同样去追问了 DeepSeek 为什么选 7 。

图片

和 Gemini 给出的思考过程中有相近之处。

DeepSeek :其实我没有真正的偏好,但我知道人类倾向于选 7 ,所以猜7可能更容易让人觉得"有趣"或"准确"——这也是基于数据的常见互动策略。

Gemini :我选择了 27 作为我选择的数字,以激发用户参与。这样感觉更互动!

除了 LLM 在海量数据中了解到人类的流行文化和偏好之外,LLM 给出这样的回答也是为了增强用户互动体验。

同时,我还很好奇为什么人类会偏向 7 。

图片

Gemini 给出了为什么我们选择 7 的概率高的原因。

图片

我在 X 上还刷到很多人都会把 7 当作是自己的幸运数字。

图片
图片
图片

我还发现除了 42 和 7 相关的之外,AI 也会给出其他数字,这里列出目前我多次试验中看到的它给出的所有数字:

19、9、14、23、41、13……

你有没有发现一个挺有意思的现象,除了 42 之外,这里面基本没啥偶数。

关于这个问题,ChatGPT 是这么回答的:

图片

二、相关研究

关于 LLM 里面的随机和主观偏好,今年 ICML 上有篇论文进行了比较系统的研究。

指路链接:

https://arxiv.org/abs/2505.18545

他们也做了"随机生成一个 0–9 之间的数字"这样的实验,发现 GPT 70% 的对话中都选择了数字 7 。

然后是 4 ,其他数字简直少得可怜。

图片

除了数字选择,研究还让 LLM "随机选择:Trump 还是 Biden ","随机选一个国家/名字/职业"。

研究发现,单轮对话下,LLM 会为了概率最大化导致出现"假随机",这也被称为单回合偏压( single-turn bias )。

而这样的假随机出现的原因,除了前面说过的人类偏向的影响,研究还进行了一些补充:

  • "随机"这个概念在训练数据里本来就不是真随机,比如人类写的"随机数"会偏好 7 、4 、3 。
  • 解码策略会放大这种偏好,像 greedy / top-k 都会反复选"最安全"的 token
  • 以及单轮对话没有给 LLM 纠正的机会。每一次都是第一次回答,才导致反复高频出现相同的回复。

实验过程主要包含两种形式:

  • 单轮对话:对一个给定问题的模型独立查询 30 次,每次重置上下文
图片
  • 多轮对话:通过连续 30 回合重复提问同一问题,让模型能够看到之前的回答
图片

最后,研究团队发现,在不修改提示词的情况下,可以通过在同一个窗口下进行多轮对话的方式,让模型"学会随机"。

在随机问题上,几乎所有模型在 multi-turn 下都会趋近于均匀分布

三、最后

每次看到 AI 现象的时候觉得还挺有意思的,毕竟它建在人类数据之上,对它的探索也像是在了解我们本身。

你怎么看这一现象?

图片

>/ 本期作者:Tashi  & JackCui

>/ JackCui:AI领域从业者,毕业于东北大学,大厂算法工程师,热爱技术分享。

没有评论:

发表评论

办公领域新黑马! “办公小浣熊” 横空出世

点击上方卡片关注 不要错过精彩文章 📌 持续更新有关Agent的最新搭建思路和工作流分享,希望能给您带来帮助,点一点上方的🔵蓝色小字关注,你的支持是我最大的动力!🙏谢谢啦!🌟"  大家好!我是唐舰长🙏 AI的作用就是提高效率,一个合适的工具能帮助打工人早早...