关于ZAKER Skills 合作
钛媒体 1小时前

20 万字不到 1 分钱,梁文锋把 token 价格打骨折了

文 | 字母 AI

梁文锋又出手了,而且还是二连降价。

4 月 25 日,DeepSeek-V4-Pro 开启限时 2.5 折优惠,输入价格(缓存命中)降至 0.25 元 / 百万 tokens。

业内还没反应过来呢,结果 4 月 26 日晚间,DeepSeek 就再次降价。

全系 API 输入缓存命中价格直接降至首发价的 1/10。

叠加限时折扣后,V4-Pro 的缓存输入低至 0.025 元 / 百万 tokens, V4-Flash 降至 0.02 元 / 百万 tokens,创下全球大模型价格新低。

这是个什么概念呢?

上海译文出版的《挪威的森林》,全书约 20 万字。将整本书命中缓存后喂给 DeepSeek-V4-Pro,那么其总成本不到 1 分钱。

DeepSeek 这次降的,不只是 token 的单价。它是把 " 长文本、长代码、长知识库 " 这些原本最烧钱的 AI 应用场景,全都打入了价格的谷底。

摸着 DeepSeek 过河

DeepSeek 两天两降,这不是简单的价格战。

先用限时折扣测试市场承受力和服务器负载,紧接着对缓存命中这一高频场景实施永久性降价。尤其是对于 RAG 知识库、智能客服、文档分析等缓存命中率超过 60% 的应用场景,成本可以直接下降 90% 以上。

DeepSeek 研究员陈德里在社交媒体上确认,输入缓存降价是永久性的,并打上了 "AGI for Everyone" 的标签。

虽然说国内所有 AI 公司,几乎都是摸着 DeepSeek 过河,但 DeepSeek 这波降价之后,却并非所有人都担心。

尤其是大厂,他们压根不在乎 DeepSeek 降价。

这是因为,大厂卖 API 的本质,是卖背后的一整套服务。大模型 API 只是用来引流的,真正赚钱的是背后的计算、存储、数据库等云服务。

以阿里云为例,4 月 15 日算力卡涨 5%-34%、存储涨 30%,但同时又愿意代理 DeepSeek。关键点就在于,即便是客户使用 DeepSeek,他们依然离不开阿里云的算力和存储。

阿里、腾讯、字节这些 AI 大厂,他们靠的是生态和平台赚钱。

真正难受的是智谱、MiniMax 和月之暗面这样的中间层。

智谱 AI 在 4 个月里已经连续三次涨价。2 月代码订阅套餐上调 30%,3 月旗舰 API 上调 20%,4 月 8 日再次上调 10%,累计涨幅 83%。调价后,GLM 系列编程场景缓存命中 Token 单价已接近 Claude Sonnet 4.6 的水平。

智谱 CEO 张鹏的解释只有一句话:" 瓶颈在算力,不在客户。"

在首份财报中,智谱公开了自己的商业逻辑公式:AGI 商业价值 = 智能上限 × Token 消耗规模。

对于智谱这个上市公司来说,算力是稀缺资源。智谱的 API 年化收入(ARR)在过去 12 个月暴涨 60 倍至 17 亿元,Token 调用量在价格上涨 83% 的背景下仍增长 400%。

问题不是客户不愿意付钱,而是现有算力已经接近满载,继续低价只会让服务质量下降。与其通过价格战抢来大量低价值客户,不如提高价格筛选出高价值客户,把有限的算力用在刀刃上。

月之暗面和 MiniMax 的特点是量大便宜,当 DeepSeek 把 API 价格打到这么低,这两家或多或少都会有些难堪。

但月之暗面的 K 2.6 以及 MiniMax 即将发布的 M3 模型,性能都要高于 DeepSeek-V4-Pro。他们在客户群体上可能会和 DeepSeek 有交集,但很难形成全面冲突。

促使 DeepSeek 降价的原因或许来自于融资,此前 DeepSeek 曾传出 100 亿美元估值,如今随着阿里、腾讯入局,估值进一步拉高至 200 亿美元。

估值拉高以后,融的金额也就多了,同时梁文锋也需要用市场、收入来证明 DeepSeek 达到估值所对应的高度。

所以即便 DeepSeek 是在赔本赚吆喝,也并不会让人感到非常意外。

对于上市公司来说,API 就是核心收入,压低 API 价格就等于降低毛利。

更关键的是,如果承认 " 我们也要降价才能竞争 ",就等于承认 " 我们没有技术护城河 "。但如果坚持高价,又必须拿出足够有说服力的差异化价值。

DeepSeek 降价的本质是他们找到了对应的客户。

梁文锋不需要 DeepSeek 有最强的性能。

无论是企业客户还是个人客户,模型的性能和使用体验之间有一道鸿沟。模型的性能跑分是它的上限,但是我们只需要我们能用到的部分。

只要有足够多的开发者和企业知道 " 还有这么便宜的选择 ",整个行业的定价体系就会被重构。就像当年小米手机对智能手机市场的冲击一样,不是销量第一,但改变了所有人对 " 合理价格 " 的预期。

而且梁文锋也意识到一个问题,那就是 AI 就是基础设施,就和柴米油盐是一样的,那么价格战就变得在所难免,最终,AI 也会像云计算一样走向 " 规模经济 + 薄利多销 "。

在这个逻辑下,谁的成本结构更优、谁的技术迭代更快、谁能更早实现规模效应,谁就能活到最后。

DeepSeek 给国产 AI 芯片替代讲故事

更关键的是,DeepSeek 已经适配华为昇腾生态。

DeepSeek 官方透露,目前 Pro 版本的服务吞吐受限于高端算力,预计下半年昇腾 950 超节点批量上市后,Pro 的价格还将大幅下调。

所以这次价格下降,还只是预告而已。

昇腾 950 超节点通过集群方案弥补了单卡制程差距。

单颗昇腾 910C 芯片的 BF16 性能仅为英伟达 Blackwell 单芯片的约三分之一,但通过超节点集群方式,单个 CloudMatrix 384 集群的 BF16 总性能反而是 NVL72 的 1.7 倍,总内存容量为后者 3.6 倍,总内存带宽为后者 2.1 倍。

这还只是算力的方面,考虑硬件成本,事情就会更有意思。

华为昇腾 950PR 的定价约 7 万元人民币,英伟达同级别 H200 约合人民币 25 万元。根据英伟达 AI 在 X 上发布的信息,DeepSeek 的确可以部署在英伟达 Blackwell 架构芯片上,不过这个成本更高,约为 40 万元人民币。

如果我们按 FP8 精度来算,昇腾 950PR 是 7 万元 /PFLOPS,英伟达 H200 是 6.31 万元 /PFLOPS。昇腾 950PR 毕竟是一张推理卡,如果我们按照推理专用的 FP4 精度来算,昇腾 950PR 是 4.49 万元 /PFLOPS,英伟达 B200 是 4.44 万元 /PFLOPS。

DeepSeek 这次降价,砍在了缓存命中的价格上。

这个场景的特点是,模型不用每次重新理解全部上下文,大量重复输入可以复用,压力主要集中在推理吞吐、显存 / 内存带宽、调度和缓存管理上。

换句话说,它不是最依赖 " 单卡训练峰值 " 的场景,而是更适合通过国产芯片集群、工程优化和规模化调度来摊薄成本的场景。

那么我们如果把单卡的性价比优势放到大规模集群部署里,结果又会如何呢?

以 100 卡集群为例,国内常用的英伟达 H20 方案裸卡成本为 1000 万,13 台服务器主机 286 万,加上机柜等,总价约为不到 1500 万元。同规模华为昇腾 950PR 的方案约为 1000 万出头。

昇腾 950PR 的单卡功耗(600W)比 H20(350W)高,但单位算力功耗低 65%,相同算力下对电力和制冷的需求大幅降低,基建投入显著减少。

并且,1 张昇腾 950PR 的推理吞吐量约等于 2.2-2.8 张 H20。这就导致实际上昇腾方案可能要比英伟达 H20 的方案节省 60% 到 70%。

而大模型的 API 价格,很大程度上取决于硬件成本。那么 DeepSeek 打折,也很可能带动一波国产 AI 芯片销量。

连 DeepSeek 都开始大规模使用国产芯片,整个产业链就会被激活。云厂商会增加国产芯片的采购,芯片厂商会加大研发投入,开发者会适配国产生态。

华为昇腾、寒武纪、海光信息、摩尔线程、沐曦股份、昆仑芯、平头哥真武、天数智芯 8 家国产 AI 芯片品牌在 DeepSeek-V4 发布当天就完成了适配。

在 DeepSeek-V4 发布当天,AI 算力芯片板块股价大涨。在 A 股,海光信息以 8.2% 的增幅领涨、寒武纪增幅为 2.23%,在港股,天数智芯的涨幅达到 9.54%。

这是一个正向循环。

当然,这并不意味着国产算力已经全面替代英伟达。训练侧仍然更依赖高端 GPU、成熟软件栈和大规模集群经验 DeepSeek 真正走通的路径,可能不是 " 一夜之间替代英伟达 ",而是先在推理侧、缓存场景、长文本应用里,把国产算力的性价比优势释放出来。

芯片只是第一层。

真正决定国产算力能不能吃下这波需求的,是软件生态。模型能不能稳定跑在昇腾上,推理框架能不能适配,算子有没有优化,开发者迁移成本有多高,才决定了这条路是 " 能演示 ",还是 " 能商业化 "。

DeepSeek 的价值在于,它不是一家边缘模型厂商做适配,而是一个头部模型亲自把流量和需求带进国产算力生态。

梁文锋仍然需要给 DeepSeek 找商业模式

梁文锋真正的杀招不在于 " 便宜 ",而在于 " 定价 "。

梁文锋在用 DeepSeek 的影响力,让市场形成一个新的认知:" 如果 DeepSeek 这个级别的模型已经能做到这个价,别家为什么还要卖这么贵?"

一旦这个锚点形成,其他厂商就陷入了两难。跟价,利润空间被压缩;不跟,就必须向客户解释 " 我贵在哪里 "。

梁文锋曾在 2024 年表示:" 我们只是按照自己的步调来做事,然后核算成本定价。我们的原则是不贴钱,也不赚取暴利。这个价格也是在成本之上稍微有点利润。我们降价一方面是因为我们在探索下一代模型的结构中,成本先降下来了,另一方面也觉得无论 API,还是 AI,都应该是普惠的、人人可以用得起的东西。"

他认为,只有让 AI 真正普惠,才能激发出足够大的应用市场。也只有应用市场足够大,技术迭代的飞轮才能真正转起来。

便宜可以打开市场,但便宜本身不是商业模式。

DeepSeek 不能一辈子靠超低 API 价格活着。

API 价格打到这个程度,短期内可以制造影响力,吸引客户,不过它很难成为一家长期公司的全部收入来源。

尤其是大模型推理本身仍然消耗算力、电力、带宽和运维,价格越低,调用量越大,对基础设施的压力也越大。

低价可以是入口,却不应该成为终点。

DeepSeek 的目标,是成为中国 AI 开发者的 " 默认底座 "。

只要足够多的应用和 agent 以 DeepSeek 作为基座模型开发,那么 DeepSeek 就掌握了入口。

API 收入只是第一层,模型标准、开发者生态、企业部署、算力适配、云厂商合作,才是梁文锋想要的商业化空间。

DeepSeek 更大的商业化机会,可能在企业私有化部署。

对于金融、政务、制造、能源这些行业来说,价格不是唯一问题,数据安全可控才是核心问题。

它们未必会长期使用公共 API,但会愿意为一套能部署在自己机房、自己云环境里的模型系统付费。

梁文锋可以把开源模型作为入口,把企业级部署、调优、运维、安全、权限管理、知识库接入变成真正的收费服务。

如果 DeepSeek 长期只停留在模型层,它仍然会被卷入无休止的价格战。模型能力会被追赶,API 价格会继续下降,开发者也会在不同模型之间切换。

真正能提高商业化上限的,是应用层产品,比如 agent 和 CLI。

所以我始终认为,DeepSeek 的低价 API,应该不是梁文锋心里所想的商业化答案,更像是一个入口。

它先用价格打穿市场,再用开源建立生态,再用企业服务、私有化部署、云厂商合作和应用产品去承接价值。

这才能把 " 底座 " 的价值最大化。

相关阅读

最新评论

没有更多评论了

觉得文章不错,微信扫描分享好友

扫码分享

热门推荐

查看更多内容

企业资讯

查看更多内容