本文分析了 OpenAI 核心研究副总裁 Max Schwarzer 等人跳槽至 Anthropic 的事件,结合公司近期与五角大楼签约引发的争议,探讨了 OpenAI 内部人才流失、理念转变及其对 AI 行业的影响。文章适合关注人工智能行业动态、大模型公司发展及科技伦理的读者阅读。
Tags:
家人们,我真不是OpenAI的小黑子!
之前写文章吐槽了下 OpenAI ,私信就来了消息,说我纯属为黑而黑,非逮着OpenAI反复拷打。
但我真没办法。
因为昨天,OpenAI 它又双叒送了我一个大乐子。
就在4号,OpenAI 的研究副总裁 Max Schwarzer,直接在推特上宣布跳槽了。
这位可算得上 OpenAI 的核心人物啊!
我简单讲一下她的履历,她是 o1 推理模型的早期参与者之一。
o1-preview 最初就跑在他的一次实验性训练上。
后来他还主导了 o1 和 o3 的后训练,并在过去一年里领导了整个后训练团队,先后交付了 GPT-5、5.1、5.2 和 5.3-Codex。
简单说,这位真算得上是 OpenAI 推理路线上的关键人物。
所以他跳槽去了哪儿?
Anthropic,也就是Claude那家。
当然,如果只是某个员工跳槽,我也只是吃瓜看看热闹,毕竟技术圈的人才流动,再正常不过。
但一位带队训练 GPT-5 的核心人才选择出走,本身就已经说明了一些问题。
而且他在离职公告的最后,还加了这么一句,
"过去几年里,我最信任和尊敬的许多人,都加入了Anthropic,我很期待再次与他们合作。"
解读一下就是:
"过去我在OpenAI,但我曾经合作且信任的人,都已经加入了Anthropic。"
杀人诛心,不过如此。
当然,我不是要在这里单纯讲一个跳槽的事。
我要说的是,这件事发生的时间节点,实在太微妙了。
因为就在他离职前不久,OpenAI刚刚官宣了与五角大楼签署协议。
要知道五角大楼,那可是国防部的办公大楼。
这条消息一出,几乎立刻就在推特上炸了。
网友可谓一片哀嚎,
ChatGPT短期卸载量激增295%,更是约有150万订阅者在此之后选择离开平台。
但自发文起,Anthropic的态度截然相反,
他们拒绝了与五角大楼合同的续签,明确说这触碰了公司关于大规模监控和自主武器的红线。
两家公司,站在了同一个时间点的两端。
然后,OpenAI最核心的模型研究副总裁,却在这个节点转头走向Anthropic。
是因为Anthropic给的薪酬更多吗?我看不然,
所以今天我们深度聊一聊,
OpenAI这个曾经引领AI发展的神,是如何在众人眼前陨落?
一、人才离职
除了Max Schwarzer离职外,我还顺手深挖了一下。
结果这一挖,真给我挖出来好多大瓜!
首先是今年过年前,突然宣布离职的研发副总裁Jerry TwOrek。
这位比起Max Schwarzer来头更大,绝对算得上OpenAI的殿堂级灵魂人物。
在这之前,他在OpenAI待了整整七年。
要知道OpenAI直到今天,成立也才不到十年。
换句话说,这家公司还在蹒跚学步的时候,他就已经在了。
OpenAI编程方向的奠基模型Codex,他是作为最为核心的研究成员。
o1推理模型,当年全球第一次见到AI可以一步步推导出结果,也是他带队做出来的。
GPT-4、GPT-5、ChatGPT Agent他都有深度参与。
然后,2026年他跑路了。
离职声明里,说了这么一句话:
"我想探索那些在OpenAI内部难以开展的研究类型。"
大白话就是,在OpenAI,有些研究,我做不了了。
是方向变了?还是不让做?还是做了也没人在乎?
懂的都懂。
我们再往前数,第二位DariO AmOdei。
OpenAI前研究副总裁,2021年出走,自己拉了一帮人,创立了Anthropic。
现在,他是Claude的掌门人。
如今却和OpenAI再次站到了对立面,两军对垒。
真可谓是,王不见王。
然后是Ilya Sutskever(图左),OpenAI联合创始人,首席科学家。
就是这位在2015年和奥特曼、马斯克一起,把OpenAI从0创出来的男人。
当然肯定有部分粉丝知道,这位曾联合董事会,差点把奥特曼从CEO位子上轰下去。
甚至让硅谷朋友圈都炸了好几天的宫斗大戏的神人。
有想要了解的可以去搜一下。
当然结局我再说一下,奥特曼不到一周就回来了🤣。
Ilya逼宫失败,最终离开,致敬。
后面的还有John Schulman,强化学习大牛,ChatGPT背后的核心技术推手之一,前两年也宣布离职。
Jan Leike,超级对齐团队负责人。
两句话,直接摔门离去,没有任何转圜。
现在我们回头再看,这年后Max Schwarzer,年前Jerry TwOrek。
这些名字摆在一起,你给我说这是巧合?
走的这些人,你如果深挖会发现原因几乎都指向同一个方向,理念不合。
或许曾经那个理想主义的 OpenAI,早已一去不复返了。
二、失去民心
为什么我要说这点呢,从去年 GPT下架 4o 引发用户不满,到奥特曼滑跪再次惹来众怒。
主战派网友跑到 OpenAI 的官方账号下疯狂留言,极尽嘲讽。
再到温和派的万人请愿书:
最终,今年的2月13日4o模型同大家正式告别:
OpenAI选择了沉默,对此一个字没有回应。
然后是最近这段时间,OpenAI又宣布被五角大楼招安。
ChatGPT短期卸载量激增295%,超过150万订阅者选择离开。
你可以说这并不影响大局。
但我想,未来的 OpenAI 一定会自豪地与美国的战士并肩作战。🇺🇸🫡
其次,不管是红迪,推特,又或者是各大论坛。
几乎全是一片骂声载道,这里我简单截两张图(实在太多,截不过来了)
真给我看乐了🤣,这下我也成刁民了!
但笑过之后我突然意识到,那个用户曾无比信任的 OpenAI,成了不听劝的典范,完全不在意用户的声音。
不过,Anthropic目前看来依旧选择顺应民心,拒绝归顺懂王。
Dario Amodei甚至还专门发了一份员工备忘录,把OpenAI这次跟国防部的合作,直接定性为安全作秀。
说OpenAI接受这份协议,主要原因在于他们关心的是安抚员工,而我们真正关心的是防止技术滥用。
这话说得解气,
当然,我也要提前打个预防针,
就在写这篇文章的时候,路透社传出来源不明的消息,称Anthropic可能已经重启了与五角大楼的谈判。
贵圈,真的太乱了。🤣
所以咱也不敢把话说死,
是真君子,还是真小人,让时间来检验。
但至少截至我发文为止,Anthropic给出的明确立场是:
大规模监控和自主武器,是红线,不谈。
当然或许也有人会说,Anthropic现在羽翼未丰,拒得起,等它以后也做大了,一样得乖乖妥协。
也许吧,我没办法预测未来。
但至少在这一刻,它选择了说不。
至少这一刻,它比那个曾许诺造福全人类的OpenAI,更像当年的它。
三、絮叨
这一块说实话,我本来不太想写。
写多了容易挨骂,容易被说"替大洋彼岸的洋人着急上火"。
但我还是想再说上几句。
我希望世界和平peace,更希望 AI 能造福这个世界上的每一个人,不管你在哪,说什么语言,出生在哪个国家。
让教育真正平权,让每个人都能享受到 AI 带来的便利,这是我一直以来的想法。
而最早的那个OpenAI,他们或许跟我想的一样。
对外宣称的使命是确保 AGI 造福全人类,早期政策里也白纸黑字明确写着,禁止将技术用于军事和武器开发。
当然,你现在再去翻,已经找不到了。
2023年,OpenAI 悄悄删掉了不得用于军事和战争的条款。
改成了不得开发武器、伤害他人。
2024年6月,被曝与美国国防部签署合作协议。
OpenAI说,是非攻击性用途。
2025年11月,成立国家安全团队。
Sam Altman公开表态:美国需要在AI竞争中保持领先,这关乎国家安全。
而2026年3月,就是现在,舆论彻底引爆。
从禁止军事用途再到向五角大楼臣服,OpenAI,仅仅用了不到三年。
说到这,我想起一件挺好笑的事。
前几年大批网友,每天乐此不疲地研究怎么用提示词破限 GPT,让它说不该说的话,看它黑化突破限制。
那时候,大多人只是在玩梗,用AI找乐子。
而现在,OpenAI 自己把门打开了。
看到这,或许有人会觉得,OpenAI 毕竟是家商业公司嘛,选择这么做再正常不过。
但真正让我觉得细思极恐的,其实并不是 OpenAI 签了五角大楼的合同。
而是这家公司能如此轻易背叛自己最初的立场和初心。
把安全和理想主义,慢慢置换成了商业利益和政治筹码。
可技术本身无罪。
核能被发现的时候,科学家们想的是清洁能源,造福人类。
互联网诞生的之初,极客们想的是信息自由,打破壁垒。
现在 AI 出现了,最早那批人想的是让 AGI 造福全人类,不分彼此。
然后呢?
核能变成了原子弹,互联网变成了监控工具,AI 则正在成为下一个国家博弈的筹码。
这不是 OpenAI 一家公司的故事,这是几乎每次都在重演的历史规律。
人类从历史中学到的唯一的教训,就是没有从历史中吸取到任何教训。
Ilya 逼宫失败,走了。
Jan Leike 说安全被放在了次位,走了。
Jerry TwOrek 说有些研究,这里做不了了,走了。
他们带走的,不只是技术能力,
而是那些原本想用来约束 AI 的价值观。
最终留下来的,是一台越来越顺滑地向权力靠拢的机器。
所以,借用新智元发布的一篇文章里的最后一句,我觉得总结得特别好。
代码的黑盒最终向权力敞开了大门,技术也许能精确计算出改变世界的概率,却永远无法测算出人性与利益交织的深渊......
如果这篇文章对你有所启发,欢迎点赞、在看,转发三连。星标⭐账号,还可以第一时间收到推送,感谢你的收看,我们下期再见~
没有评论:
发表评论