半年前,DeepSeek R1 的推出轰动了全球,无论东西方都是火的一塌糊涂,更是被外网称为 AI 领域的 Sputnik 时刻。
一夜之间,DeepSeek 相关的话题席卷了各大社交平台。上线后仅20天,每日活跃用户数量(DAU)就激增到 2215 万,成为全球增速最快的 AI 应用。
其应用程序直接登顶全球 140 多个国家的 IOS App Store 下载排行榜,并且力压 ChatGPT ,一跃成为美区免费应用下载榜第一名,堪称是现象级增长。
DeepSeek 的出现更是形成了对美股科技股集体的强烈冲击。
纳斯达克 100 指数期货一度跌幅扩大至 5%,芯片巨头英伟达(NVIDIA)当日股价暴跌约 17% ,市值瞬间蒸发数千亿美元。整个科技板块市值一日之间缩水近万亿美元。
说它创造了历史也毫不夸张。
可就是这样一个开局即王炸的 R1,近日却被外媒 SemiAnalysis 指出:DeepSeek R1 正在经历流失用户,并且出现了绝对流量下降的现象。
明明其他几家大模型的网页访问量显著增长,为什么 DeepSeek 却出现了近 30% 的暴跌?
不仅如此,DeepSeek 的市场份额也是在持续下滑。
这不禁让人好奇,R1 流量萎缩、用户流失的背后究竟发生了什么?这究竟是商业策略的失败还是 DeepSeek 刻意的选择?
SemiAnalysis 这篇报告《DeepSeek Debrief: >128 Days Later》也为我们挖出了 DeepSeek 自发布这半年来的一些内幕信息。
报告指路:
https://semianalysis.com/2025/07/03/deepseek-debrief-128-days-later/
一、DeepSeek市场遇冷
1、用户转向DeepSeek第三方平台
首先,DeepSeek 市场遇冷的一大原因在于用户纷纷投奔第三方。
与 DeepSeek 官方平台难以维护用户的持续增长相比,DeepSeek 模型在第三方部署使用量却实现了惊人的增长。
例如 DeepSeek R1 和 DeepSeek V3 模型自发布以来,第三方部署使用量已经增长了近 20 倍。
这也导致官方 token 消耗占市场 token 消耗的份额出现了每个月都持续下降的情况。
这就引出了另一个问题:为什么用户要从 DeepSeek 的 Web 应用和 API 服务转向其他开源提供商呢?
那就不得不提到用户在使用 DeepSeek 官方平台中遇到的几个痛点:
1、DeepSeek 为了实现其极具竞争力的低价,选择牺牲了部分用户体验。
首先是用户使用 DeepSeek 过程中明显的首 token 延迟与其不具竞争力的输出速度。DeepSeek 同一批次处理多个用户的 请求,降低了成本但也迫使用户要等待更多的时间。
从 OpenRouter 上的数据我们可以看到,DeepSeek 官方平台与其它以相同的价格提供 R1 服务的平台相比,第三方平台延迟响应的时间要短得多。
2、其次是相对较小的上下文窗口,无法满足大型代码或文档分析的需求。DeepSeek 仅支持 64K 上下文。
下图中在延迟数据之上,添加了基于各平台提供的上下文窗口大小对应的圆圈,可以看到很多第三方平台,例如 Lambda 和 Nebius ,提供的上下文窗口是 DeepSeek 官方本身的 2.5+ 倍。
二、DeepSeek市场策略
值得强调的一点是,上面这些用户痛点并不是 DeepSeek 官方解决不了,而是 DeepSeek 选择不这样做。
以极高的速率进行批处理意味着 DeepSeek 能够使用尽可能少的计算量进行推理。这能保证算力尽可能多的保持在内部,用于研究和开发。
这种主动的不顾用户体验的战略选择,让我们从中也能看出 DeepSeek 对自己的市场定位:不是一心只想搞钱的商业公司,而是更像是一个算力实验室。
报告中也直接指出:"这是 DeepSeek 的一个积极决定。他们对从用户身上赚钱或通过聊天应用程序或 API 服务为他们提供大量 tokens 不感兴趣。该公司只专注于实现 AGI,对最终用户体验不感兴趣。"
不得不说,在 OpenAI, Xai 等一众商业公司中,DeepSeek 选择的这样"离经叛道"的商业范式,倒颇有一股不忘初心、押注未来的意味,这也让人更加期待 R2 的到来。
三、Anthropic
报告中还提到了另一家和 DeepSeek 处境相似的公司:Anthropic 。在 AI 世界中,算力即生产力,而 Anthropic 和 DeepSeek 一样,也受算力有限影响。
那么 Anthropic 是怎么应对的呢?
Anthropic 将产品开发的重点放在代码上,并在 Cursor 等编码应用程序中得到了广泛采用。 经过市场检验后,Anthropic 推出了 Claude Code,这是在其终端中内置的编码工具。
一经推出,Claude Code 的使用量猛增,令 OpenAI 的 Codex 望尘莫及,但这也给公司的算力带来了巨大的压力。
Anthropic 破局的策略主要有两点。
首先是积极与亚马逊和谷歌等云服务巨头合作,以获取更多的计算资源。
Anthropic 从亚马逊获得了超过五十万个 Trainium 芯片,然后把它们用于推理和训练。
Anthropic 还从 Google Cloud Platform 租用了大量计算资源,特别是 TPU。
其次是通过优化模型,使得模型在回答问题时使用的 token 数量更少。
这意味着,即使 Anthropic 的输出速度(tokens per second)较慢,但由于其回答更精炼,完成任务的总时间可能与竞争对手相当甚至更短,从而在一定程度上弥补了速度上的不足。
四、国内网友的态度
除了外媒的点评,国内网友对于 DeepSeek 的吐槽更是一直没断过。
1、吐槽使用体验
原因主要有:速度太慢、幻觉问题、服务器繁忙无法使用、和谐问题。
2、转用其他模型
大模型行业的竞争日益加剧,各家模型迭代层出不穷。
自 R1 发布后这半年来,GPT-4.5、Gemini 2.5、文心大模型4.5、通义千问3、Claude 4、Grok 4、Kimi K2 相继发布。虽然在 5 月,R1 进行了一次重要更新,但 R2 的推出一再被延迟,一次更新似乎并不足以留住用户转向新迭代出的其他模型。
3、坚定拥护
也有很多对 DeepSeek 的积极评价,整体评价风向向好。
也有网友指出用开源模型的数据和闭源比不公平,加上 DeepSeek 第三方托管平台多,官方平台网页的使用量并不能对标模型的能力。
五、最后一句
从上文中可以看到大模型行业在计算资源、商业模式和技术发展之间的复杂平衡。
DeepSeek 选择了一条独特的道路:通过牺牲用户体验来最大化研发资源,通过开源策略扩大全球影响力。而 Anthropic 则在资源限制下努力优化效率,提供更好的用户体验。
Grok4 刚刚推出, GPT5、Gemini3 快要推出的"小道消息"各网疯传,大模型行业的竞争愈演愈烈。
价格战只是表象,真正的较量在于如何在有限资源下实现技术突破,以及如何在商业成功与技术理想之间找到平衡。
>/ 本期作者:Tashi & JackCui
>/ JackCui:AI领域从业者,毕业于东北大学,大厂算法工程师,热爱技术分享。
没有评论:
发表评论