2026年1月29日星期四

Kimi创始人回应Claude质疑与GPT取舍,预告十倍进化K3

月之暗面创始人在技术社区深度答疑,澄清模型自称Claude源于预训练数据统计相关性,否认创意与编程能力必须取舍,并透露将用线性架构探索K3的十倍提升及开放智能体集群能力。

Reddit /r/LocalLLaMA 频道,不缺极客的狂欢。

1 月 29 日凌晨,这个在全球活跃的技术社区迎来了一场真正的"硬核对谈"。月之暗面的三位联合创始人(杨植麟、周昕宇、吴育昕)集体上线,面对全球开发者的高强度技术提问,进行了一场长达三小时的"有问必答" 。

这不是一场产品发布式的宣讲,而是技术信仰者之间的真挚交流。

如果你错过了这场深夜激辩,我为你整理了最需要关注的几个核心议题。

  1. 正面回应"Claude蒸馏"质疑

Kimi K2.5 发布后,因为部分用户发现模型在特定情况下会自称"Claude",引发了是否蒸馏Anthropic 的争议 。

杨植麟在 AMA 中表现得非常坦诚:"这更多反映了预训练数据的分布。" 他解释说,由于在预训练阶段采样了来自互联网的最新编程数据,而这些数据与"Claude"这个 token表现出了更强的统计相关性,导致模型在系统提示词为空时会进入"未定义区域"产生幻觉。

图片

他给出的数据更有力:"事实上,K2.5 在许多基准测试(如 HLE、MMMU Pro、MathVision)中已经优于 Claude。"这种"用数据说话"的底气,正是Kimi核心团队一贯的极客作风。

  1. 拒绝"牺牲论":编程与创作能否兼得?

就在几天前,Sam Altman 还在 OpenAI Town Hall 中自认,为了优先提升 GPT-5.2 的编程和推理能力,不得不牺牲了创意写作质量。

对此,杨植麟给出了一个完全不同的答案:"只要有足够的模型参数,编程和创意写作之间不存在冲突。"

  • Kimi 的解法:不接受这种"必然的取舍",而是通过内部的元评估基准(Meta Eval)持续监控"写作品味",并动态调整奖励模型

  • 不同路径:OpenAI 选择了先优化再补课,而 Kimi 选择通过工程化手段同步保持技术性能与人文性。

图片
  1. "创新源于约束":1% 资源的极致效率

面对全球开发者关于"算力差距"的追问,Kimi 团队也是爆出金句。

周昕宇直言:"Innovation loves constraints(创新源于约束)" 事实也确实如此:Kimi 仅使用了美国顶尖实验室约 1% 的资源,就开发出了在全球开源榜单中领跑的 Kimi K2.5。

图片

杨植麟则从更深层次思考 Scaling Laws 的未来:传统的互联网数据预训练红利正在消失,Kimi 正在探索新的扩展范式,比如 Agent Swarm(智能体集群)。这不仅是测试时间的缩放,更是一种全新的训练思维。

  1. 未来预告:Agent Swarm 与 K3 的十倍进化

对于开发者来说,这次 AMA 释放了两个重磅利好:

  • Agent Swarm 开放计划:Kimi 确认将逐渐向开发者开放"智能体集群"能力。目前该模式支持最多 100 个子智能体并行协作,这可能是应对复杂大规模任务的最优解。

  • 关于 K3 的剧透:杨植麟透露,Kimi 曾经历过 Linear(线性架构)在扩展测试中失败的时刻。对于未来的 K3,线性架构是一个重要选项,他有信心继续探索,让 K3 比 K2.5 强出 10 倍 

    • 图片

做笔记:中国 AI 的"品味"与"工程化"

看完这场 AMA,最触动我的是那句:"研究大部分时间是在管理失败,而不是庆祝成功。"

在中国 AI 竞逐全球的赛道上,Kimi 展现出了一种独特的样本:不盲从算力竞赛,不妥协用户体验,在极致的资源限制下,用最硬核的工程能力去寻找关于智能创造的真相 。

图片图片

目前,Kimi K2.5 在 LMArena 代码能力榜单上已位列全球开源第一。这种"中国自研"的效率和品味,确实值得每一位开发者去深度体验。

想了解更多 Kimi K2.5 的实测表现或 Agent 集群的最新进展?欢迎在评论区交流。


没有评论:

发表评论

蚂蚁灵波开源世界模型LingBot-World,支持10分钟实时生成与交互

蚂蚁灵波开源通用世界模型LingBot-World,可生成10分钟动态视频并实时交互。用户通过键盘鼠标控制视角,或用自然语言指令实时修改场景。模型具备长时序一致性、记忆力和物理规律模拟能力,性能优于Genie 3等模型,并已与感知(LingBot-Depth)、决策(LingBo...