梁文锋又出手了,而且还是二连降价。
4月25日,DeepSeek-V4-Pro开启限时2.5折优惠,输入价格(缓存命中)降至0.25元/百万tokens。
业内还没反应过来呢,结果4月26日晚间,DeepSeek就再次降价。
全系API输入缓存命中价格直接降至首发价的1/10。
叠加限时折扣后,V4-Pro的缓存输入低至0.025元/百万tokens, V4-Flash降至0.02元/百万tokens,创下全球大模型价格新低。
这是个什么概念呢?
上海译文出版的《挪威的森林》,全书约20万字。将整本书命中缓存后喂给DeepSeek-V4-Pro,那么其总成本不到1分钱。
DeepSeek这次降的,不只是token的单价。它是把“长文本、长代码、长知识库”这些原本最烧钱的AI应用场景,全都打入了价格的谷底。
01 摸着DeepSeek过河
DeepSeek两天两降,这不是简单的价格战。
先用限时折扣测试市场承受力和服务器负载,紧接着对缓存命中这一高频场景实施永久性降价。尤其是对于RAG知识库、智能客服、文档分析等缓存命中率超过60%的应用场景,成本可以直接下降90%以上。
DeepSeek研究员陈德里在社交媒体上确认,输入缓存降价是永久性的,并打上了“AGI for Everyone”的标签。
虽然说国内所有AI公司,几乎都是摸着DeepSeek过河,但DeepSeek这波降价之后,却并非所有人都担心。
尤其是大厂,他们压根不在乎DeepSeek降价。
这是因为,大厂卖API的本质,是卖背后的一整套服务。大模型API只是用来引流的,真正赚钱的是背后的计算、存储、数据库等云服务。
以阿里云为例,4月15日算力卡涨5%-34%、存储涨30%,但同时又愿意代理DeepSeek。关键点就在于,即便是客户使用DeepSeek,他们依然离不开阿里云的算力和存储。
阿里、腾讯、字节这些AI大厂,他们靠的是生态和平台赚钱。
真正难受的是智谱、MiniMax和月之暗面这样的中间层。
智谱AI在4个月里已经连续三次涨价。2月代码订阅套餐上调30%,3月旗舰API上调20%,4月8日再次上调10%,累计涨幅83%。调价后,GLM系列编程场景缓存命中Token单价已接近Claude Sonnet 4.6的水平。
智谱CEO张鹏的解释只有一句话:“瓶颈在算力,不在客户。”
在首份财报中,智谱公开了自己的商业逻辑公式:AGI商业价值=智能上限×Token消耗规模。
对于智谱这个上市公司来说,算力是稀缺资源。智谱的API年化收入(ARR)在过去12个月暴涨60倍至17亿元,Token调用量在价格上涨83%的背景下仍增长400%。
问题不是客户不愿意付钱,而是现有算力已经接近满载,继续低价只会让服务质量下降。与其通过价格战抢来大量低价值客户,不如提高价格筛选出高价值客户,把有限的算力用在刀刃上。
月之暗面和MiniMax的特点是量大便宜,当DeepSeek把API价格打到这么低,这两家或多或少都会有些难堪。
但月之暗面的K 2.6以及MiniMax即将发布的M3模型,性能都要高于DeepSeek-V4-Pro。他们在客户群体上可能会和DeepSeek有交集,但很难形成全面冲突。
促使DeepSeek降价的原因或许来自于融资,此前DeepSeek曾传出100亿美元估值,如今随着阿里、腾讯入局,估值进一步拉高至200亿美元。
估值拉高以后,融的金额也就多了,同时梁文锋也需要用市场、收入来证明DeepSeek达到估值所对应的高度。
所以即便DeepSeek是在赔本赚吆喝,也并不会让人感到非常意外。
对于上市公司来说,API就是核心收入,压低API价格就等于降低毛利。
更关键的是,如果承认“我们也要降价才能竞争”,就等于承认“我们没有技术护城河”。但如果坚持高价,又必须拿出足够有说服力的差异化价值。
DeepSeek降价的本质是他们找到了对应的客户。
梁文锋不需要DeepSeek有最强的性能。
无论是企业客户还是个人客户,模型的性能和使用体验之间有一道鸿沟。模型的性能跑分是它的上限,但是我们只需要我们能用到的部分。
只要有足够多的开发者和企业知道“还有这么便宜的选择”,整个行业的定价体系就会被重构。就像当年小米手机对智能手机市场的冲击一样,不是销量第一,但改变了所有人对“合理价格”的预期。
而且梁文锋也意识到一个问题,那就是AI就是基础设施,就和柴米油盐是一样的,那么价格战就变得在所难免,最终,AI也会像云计算一样走向“规模经济+薄利多销”。
在这个逻辑下,谁的成本结构更优、谁的技术迭代更快、谁能更早实现规模效应,谁就能活到最后。
02 DeepSeek给国产AI芯片替代讲故事
更关键的是,DeepSeek已经适配华为昇腾生态。
DeepSeek官方透露,目前Pro版本的服务吞吐受限于高端算力,预计下半年昇腾950超节点批量上市后,Pro的价格还将大幅下调。
所以这次价格下降,还只是预告而已。
昇腾950超节点通过集群方案弥补了单卡制程差距。
单颗昇腾910C芯片的BF16性能仅为英伟达Blackwell单芯片的约三分之一,但通过超节点集群方式,单个CloudMatrix 384集群的BF16总性能反而是NVL72的1.7倍,总内存容量为后者3.6倍,总内存带宽为后者2.1倍。
这还只是算力的方面,考虑硬件成本,事情就会更有意思。
华为昇腾950PR的定价约7万元人民币,英伟达同级别H200约合人民币25万元。根据英伟达AI在X上发布的信息,DeepSeek的确可以部署在英伟达Blackwell架构芯片上,不过这个成本更高,约为40万元人民币。
如果我们按FP8精度来算,昇腾950PR是7万元/PFLOPS,英伟达H200是6.31万元/PFLOPS。昇腾950PR毕竟是一张推理卡,如果我们按照推理专用的FP4精度来算,昇腾950PR是4.49万元/PFLOPS,英伟达B200是4.44万元/PFLOPS。
DeepSeek这次降价,砍在了缓存命中的价格上。
这个场景的特点是,模型不用每次重新理解全部上下文,大量重复输入可以复用,压力主要集中在推理吞吐、显存/内存带宽、调度和缓存管理上。
换句话说,它不是最依赖“单卡训练峰值”的场景,而是更适合通过国产芯片集群、工程优化和规模化调度来摊薄成本的场景。
那么我们如果把单卡的性价比优势放到大规模集群部署里,结果又会如何呢?
以100卡集群为例,国内常用的英伟达H20方案裸卡成本为1000万,13台服务器主机286万,加上机柜等,总价约为不到1500万元。同规模华为昇腾950PR的方案约为1000万出头。
昇腾950PR的单卡功耗(600W)比H20(350W)高,但单位算力功耗低65%,相同算力下对电力和制冷的需求大幅降低,基建投入显著减少。
并且,1张昇腾950PR的推理吞吐量约等于2.2-2.8张H20。这就导致实际上昇腾方案可能要比英伟达H20的方案节省60%到70%。
而大模型的API价格,很大程度上取决于硬件成本。那么DeepSeek打折,也很可能带动一波国产AI芯片销量。
连DeepSeek都开始大规模使用国产芯片,整个产业链就会被激活。云厂商会增加国产芯片的采购,芯片厂商会加大研发投入,开发者会适配国产生态。
华为昇腾、寒武纪、海光信息、摩尔线程、沐曦股份、昆仑芯、平头哥真武、天数智芯8家国产AI芯片品牌在DeepSeek-V4发布当天就完成了适配。
在DeepSeek-V4发布当天,AI算力芯片板块股价大涨。在A股,海光信息以8.2%的增幅领涨、寒武纪增幅为2.23%,在港股,天数智芯的涨幅达到9.54%。
这是一个正向循环。
当然,这并不意味着国产算力已经全面替代英伟达。训练侧仍然更依赖高端GPU、成熟软件栈和大规模集群经验DeepSeek真正走通的路径,可能不是“一夜之间替代英伟达”,而是先在推理侧、缓存场景、长文本应用里,把国产算力的性价比优势释放出来。
芯片只是第一层。
真正决定国产算力能不能吃下这波需求的,是软件生态。模型能不能稳定跑在昇腾上,推理框架能不能适配,算子有没有优化,开发者迁移成本有多高,才决定了这条路是“能演示”,还是“能商业化”。
DeepSeek的价值在于,它不是一家边缘模型厂商做适配,而是一个头部模型亲自把流量和需求带进国产算力生态。
03 梁文锋仍然需要给DeepSeek找商业模式
梁文锋真正的杀招不在于“便宜”,而在于“定价”。
梁文锋在用DeepSeek的影响力,让市场形成一个新的认知:“如果DeepSeek这个级别的模型已经能做到这个价,别家为什么还要卖这么贵?”
一旦这个锚点形成,其他厂商就陷入了两难。跟价,利润空间被压缩;不跟,就必须向客户解释“我贵在哪里”。
梁文锋曾在2024年表示:“我们只是按照自己的步调来做事,然后核算成本定价。我们的原则是不贴钱,也不赚取暴利。这个价格也是在成本之上稍微有点利润。我们降价一方面是因为我们在探索下一代模型的结构中,成本先降下来了,另一方面也觉得无论API,还是AI,都应该是普惠的、人人可以用得起的东西。”
他认为,只有让AI真正普惠,才能激发出足够大的应用市场。也只有应用市场足够大,技术迭代的飞轮才能真正转起来。
便宜可以打开市场,但便宜本身不是商业模式。
DeepSeek不能一辈子靠超低API价格活着。
API价格打到这个程度,短期内可以制造影响力,吸引客户,不过它很难成为一家长期公司的全部收入来源。
尤其是大模型推理本身仍然消耗算力、电力、带宽和运维,价格越低,调用量越大,对基础设施的压力也越大。
低价可以是入口,却不应该成为终点。
DeepSeek的目标,是成为中国AI开发者的“默认底座”。
只要足够多的应用和agent以DeepSeek作为基座模型开发,那么DeepSeek就掌握了入口。
API收入只是第一层,模型标准、开发者生态、企业部署、算力适配、云厂商合作,才是梁文锋想要的商业化空间。
DeepSeek更大的商业化机会,可能在企业私有化部署。
对于金融、政务、制造、能源这些行业来说,价格不是唯一问题,数据安全可控才是核心问题。
它们未必会长期使用公共API,但会愿意为一套能部署在自己机房、自己云环境里的模型系统付费。
梁文锋可以把开源模型作为入口,把企业级部署、调优、运维、安全、权限管理、知识库接入变成真正的收费服务。
如果DeepSeek长期只停留在模型层,它仍然会被卷入无休止的价格战。模型能力会被追赶,API价格会继续下降,开发者也会在不同模型之间切换。
真正能提高商业化上限的,是应用层产品,比如agent和CLI。
所以我始终认为,DeepSeek的低价API,应该不是梁文锋心里所想的商业化答案,更像是一个入口。
它先用价格打穿市场,再用开源建立生态,再用企业服务、私有化部署、云厂商合作和应用产品去承接价值。
这才能把“底座”的价值最大化。
本文来自微信公众号“字母AI”,作者:苗正,36氪经授权发布。