月之暗面创始人在技术社区深度答疑,澄清模型自称Claude源于预训练数据统计相关性,否认创意与编程能力必须取舍,并透露将用线性架构探索K3的十倍提升及开放智能体集群能力。
Reddit /r/LocalLLaMA 频道,不缺极客的狂欢。
1 月 29 日凌晨,这个在全球活跃的技术社区迎来了一场真正的"硬核对谈"。月之暗面的三位联合创始人(杨植麟、周昕宇、吴育昕)集体上线,面对全球开发者的高强度技术提问,进行了一场长达三小时的"有问必答" 。
这不是一场产品发布式的宣讲,而是技术信仰者之间的真挚交流。
如果你错过了这场深夜激辩,我为你整理了最需要关注的几个核心议题。
正面回应"Claude蒸馏"质疑
Kimi K2.5 发布后,因为部分用户发现模型在特定情况下会自称"Claude",引发了是否蒸馏Anthropic 的争议 。
杨植麟在 AMA 中表现得非常坦诚:"这更多反映了预训练数据的分布。" 他解释说,由于在预训练阶段采样了来自互联网的最新编程数据,而这些数据与"Claude"这个 token表现出了更强的统计相关性,导致模型在系统提示词为空时会进入"未定义区域"产生幻觉。
他给出的数据更有力:"事实上,K2.5 在许多基准测试(如 HLE、MMMU Pro、MathVision)中已经优于 Claude。"这种"用数据说话"的底气,正是Kimi核心团队一贯的极客作风。
拒绝"牺牲论":编程与创作能否兼得?
就在几天前,Sam Altman 还在 OpenAI Town Hall 中自认,为了优先提升 GPT-5.2 的编程和推理能力,不得不牺牲了创意写作质量。
对此,杨植麟给出了一个完全不同的答案:"只要有足够的模型参数,编程和创意写作之间不存在冲突。"
Kimi 的解法:不接受这种"必然的取舍",而是通过内部的元评估基准(Meta Eval)持续监控"写作品味",并动态调整奖励模型
不同路径:OpenAI 选择了先优化再补课,而 Kimi 选择通过工程化手段同步保持技术性能与人文性。
"创新源于约束":1% 资源的极致效率
面对全球开发者关于"算力差距"的追问,Kimi 团队也是爆出金句。
周昕宇直言:"Innovation loves constraints(创新源于约束)" 事实也确实如此:Kimi 仅使用了美国顶尖实验室约 1% 的资源,就开发出了在全球开源榜单中领跑的 Kimi K2.5。
杨植麟则从更深层次思考 Scaling Laws 的未来:传统的互联网数据预训练红利正在消失,Kimi 正在探索新的扩展范式,比如 Agent Swarm(智能体集群)。这不仅是测试时间的缩放,更是一种全新的训练思维。
未来预告:Agent Swarm 与 K3 的十倍进化
对于开发者来说,这次 AMA 释放了两个重磅利好:
Agent Swarm 开放计划:Kimi 确认将逐渐向开发者开放"智能体集群"能力。目前该模式支持最多 100 个子智能体并行协作,这可能是应对复杂大规模任务的最优解。
关于 K3 的剧透:杨植麟透露,Kimi 曾经历过 Linear(线性架构)在扩展测试中失败的时刻。对于未来的 K3,线性架构是一个重要选项,他有信心继续探索,让 K3 比 K2.5 强出 10 倍 。
做笔记:中国 AI 的"品味"与"工程化"
看完这场 AMA,最触动我的是那句:"研究大部分时间是在管理失败,而不是庆祝成功。"
在中国 AI 竞逐全球的赛道上,Kimi 展现出了一种独特的样本:不盲从算力竞赛,不妥协用户体验,在极致的资源限制下,用最硬核的工程能力去寻找关于智能创造的真相 。
目前,Kimi K2.5 在 LMArena 代码能力榜单上已位列全球开源第一。这种"中国自研"的效率和品味,确实值得每一位开发者去深度体验。
想了解更多 Kimi K2.5 的实测表现或 Agent 集群的最新进展?欢迎在评论区交流。
没有评论:
发表评论