4月17日,The Information放出一条消息:DeepSeek正在和部分机构洽谈融资事宜,目标至少3亿美元,估值超过100亿。
消息不胫而走,炸开了锅。
梁文锋和他的深度求索在国内AI领域一直是个特殊的存在。别人抢着被投,他一直拒绝融资和过度商业化,并回绝了不少投资人的接洽意向。
因此当这条融资讯息扩散开来的时候,不少观点的反应非常直觉,一些声音认为梁文锋开始扛不住了,DeepSeek缺钱并开始尝试商业化转型了,曾经高傲的理想主义者终究还是向资本和现实低了头。
这个结论看似干脆利落,但很可惜,它是错的。
因为它用上一阶段的逻辑,去解释一个已经进入下一阶段的行业。
幻方的弹药
先回答一个最直觉的问题:DeepSeek到底缺不缺钱?
从账面上看,确实不缺。
2025年,DeepSeek背后的幻方量化在2025年创下了56.6%的平均收益率,在全国管理规模超百亿的量化私募中排名第二,仅次于灵均投资。
按照流传甚广的行业估算,700亿管理规模,1%管理费加20%业绩提成,一年下来的收入约合人民币约50亿。
考虑到幻方本身的运营成本、渠道分成、税收摩擦等因素,实际能用来投入Deepseek研发的经费,仍然至少可达数亿元量级。
这个弹药量并不低,而且这笔钱是相对简单的——幻方早几年就停了外部募资,梁文锋持有多数股权。
DeepSeek的研发经费直接从幻方的研发预算中出,不受任何外部股东、LP或董事会的干涉,不需要给任何人看报表,不需要为任何人的退出计划负责。
如今的矛盾之处在于,明明一个背靠稳定现金流支持的模型,为何要开始启动融资了?
Agent账本变了
答案或许在于,AI行业正在发生一次快速的范式切换,即从三年前出圈的Chatbot到如今遍地养虾热的AI Agent。
过去两年,大模型的核心叙事是"一次训练、反复调用"。耗费几百万美元训一个模型,然后部署出去,用户提问、模型回答,一来一回就是一次推理。算力的消耗集中在训练阶段,推理阶段的成本相对可控。
但Agent的逻辑完全不同。它执行一整条任务链,涉及规划、调用工具、与环境交互、在失败后回溯纠错。
一个Agent完成一项复杂任务所消耗的推理token,可能是Chatbot时代下的几十倍甚至上百倍。推理成本开始逼近训练成本,两者共同呈指数级膨胀。
与此同时,模型参数量还在继续爬升。2024年底的V3参数量是671B,而行业推测的Claude Opus4.6已有5T之巨。
随着行业前沿的模型参数规模正在从千亿级向万亿级跨越。这意味着单次训练所需的算力、数据和工程复杂度都在陡峭上升。
DeepSeek过去能用500多万美元训出V3,靠的是方法论上的极致效率,包括MoE架构、多头潜在注意力(MLA)、细粒度专家路由,每一项技术创新都是在有限算力下榨取最大性能。
这是一种以巧胜拙的打法,但有一个前提:牌桌上的赌注不能涨得太快。
如今赌注涨了。
Agent时代的模型训练,正在成为持续迭代的飞轮,模型要在复杂环境中反复试错、积累反馈、自我改进。数据、算力和工程资源的需求正在指数型抬升。
幻方的50亿收入,在Chatbot时代是绰绰有余。但在Agent时代正在变得未必够用。
被挖走的那些人
算力需求的指数上升是一张明牌,人才流失则是更扎心的暗牌。
据晚点LatePost报道,自R1大获成功以来,DeepSeek至少有5名核心研发成员离职,他们覆盖了基座模型、推理、OCR和多模态四条核心技术主线:
第一代大语言模型核心作者王炳宣去了腾讯。V3模型关键贡献者罗福莉去了小米出任AI部门负责人。R1核心研究员、DeepSeek-Coder第一作者郭达雅加入字节跳动Seed团队,担任Agent负责人之一。此外,OCR系列核心作者魏浩然、多模态成果核心贡献者阮翀也先后离开。
DeepSeek的核心研发团队不过百人上下。走掉5个核心,相当于4条技术主线同时出现断点,正在暴露人才机制上的结构化问题。
DeepSeek的整个组织模式极度扁平的,只有梁文锋和研究员两个层级,不打卡、不考核、没有明确的KPI和截止时间。团队超七成不到30岁,超七成是本硕。
一名接近DeepSeek的算法工程师透露,只要团队内有人产生灵感或想法,就可以内部组队尝试探索,这在层级繁冗的大公司是很难实现的。
这种模式适合做前沿探索,但它仍有一个致命的短板:缺乏成熟的股权激励体系。
早在2023年,梁文锋曾尝试用类似OpenAI与微软的"回报上限"协议去接触投资人,但没有机构接受。而DeepSeek缺乏融资经历和股份定价,给予员工的期权很难成为确定性的激励工具。
这种状态下,当字节开出由现金、字节期权和豆包期权组成的薪资总包,当小米用千万年薪来招手,当阿里甚至开出后训练负责人的职位,当一些竞争对手开出2-3倍的收入挖角之时——很难不让让95后研究员扎堆的DeepSeek面临人才困境。
不仅如此,智谱、MiniMax相继上市,股价上涨带来了可观财富效应。在这种环境下,一张无法定价、无法变现的期权协议,说服力越来越有限。
融资在这个维度上,不只是为了储备算力,也能给员工的期权标一个价格。有了估值,才有确定性,才能与大厂的抢人机器正面过招。
梁文锋显然意识到了这一点,DeepSeek已在推动公司估值工作,明确期权定价,试图给团队更多确定感。
除了钱,还有场景
"给估值"和"买算力"并不是融资的全部目标,更关键的可能还有Agent的发展方向。
2026年3月,DeepSeek一口气放出了17个新招聘岗位。
最引人注目的是三个Agent方向的专属岗位:Agent深度学习算法研究员、Agent数据评测研究员、Agent基础设施工程师。
算法研究员要做的是探索强化学习在大模型对齐与能力提升中的应用,涵盖RLHF、过程奖励、偏好学习等方向。
数据评测研究员要做的是构建评测数据集,针对Agent的规划、工具调用、多轮交互、长期记忆等核心能力设计测试用例。
基础设施工程师要做的是搭建Agent运行的底层基座,要求熟悉MCP、Tool Use、Function Calling等Agent交互协议。
除此之外,连模型策略产品经理岗位都单独设立了Agent方向,要求熟悉Agent核心机制,例如Tool Use、Planning、长期记忆、Multi-Agent协作。
对比今年1月,那时DeepSeek开放的核心岗位还集中在"深度学习研究员-AGI"这类通用研究方向。
短短两个月,DeepSeek的扩招重心明显从基础模型研究向Agent产品化倾斜。
过去行业有一个流行猜想:当模型能力足够强,Agent能力自然就强,不断进化的模型最终可以将Agent的价值吞掉。
但我们在Agent的苦涩觉醒:智能正从语言走向经验一文中强调过:AI与Agent的互补作用是双向的。
Agent在复杂场景中的丰富度,会反向拉升模型的能力。模型需要在真实的任务链中摔打、试错、积累反馈,才能习得那些在实验室里训不出来的能力。
比如超越上下文的记忆连续性,比如多工具调度的可靠性,比如面对模糊指令时的自主规划能力。
这些能力的成长,依赖于丰富、复杂、真实的应用场景与训练环境。
3月26日,从阿里离职三周后的林俊旸在技术长文《从"推理式思维"到"智能体思维"(From "Reasoning" Thinking to "Agentic" Thinking)》中提出了一个更具洞察力的结论:
"在SFT(监督微调)时代,我们痴迷的是数据多样性;在智能体时代,我们应该痴迷的是环境质量:稳定性、真实性、覆盖面、难度、状态多样性、反馈丰富度、抗利用能力,以及rollout(完整执行一遍流程)生成的可扩展性。"
可好的环境从哪里来?
一种路径是自己搭建,但这需要时间和资源。
另一种路径是通过战略投资方的产业网络获取。一个拥有B端客户生态的投资方,能够直接提供金融、办公、开发等垂直领域的Agent训练场景,这种"场景协同效应"的价值,远超资金本身。
从这个角度看,融资的意义不在于"输血",而在于"接入",尤其是接入那些单靠幻方的利润无法购买的产业资源。
未变的极客底色
市场上还有另一种声音:DeepSeek这两年被追上了,R1和V3的效果已经被国内大厂逐步逼近,因此需要融资来追赶其他竞争者。
这种判断看到了表面,却忽略了内核。
DeepSeek的定位本就不是传统商业公司,而是一个前沿人工智能实验室。
它的价值不需要客户端的产品体验或者幻觉控制来体现,也不用通过某个模型的benchmark分数或基准测试来证明,其核心影响在于:向行业输出了多少可以被复用的方法论。
2026年元旦,DeepSeek在arXiv上发布了一篇新论文,提出了mHC(流形约束超连接)架构,通过将连接权重矩阵约束在双随机矩阵流形上,解决了超连接架构在大规模训练中的不稳定性问题。论文的第一作者包括解振达和韦毅轩,梁文锋本人也在19位作者名单之列。
这篇论文动的是Transformer架构中最古老、最基础的那块砖——何恺明2015年提出的残差连接。过去十年间,残差连接几乎没有过根本性的改动。
再往前看:2025年9月发布的DeepSeek-V3.2引入了DSA(稀疏注意力)机制,寒武纪在发布四分钟后就宣布完成了对该框架的适配,而这一架构后来也被智谱GLM-5所借鉴。
2025 年 10 月,DeepSeek 发布初代 OCR 模型,以上下文光学压缩实现高效文档识别;2026 年 1 月推出DeepSeek-OCR-2,引入视觉因果流,3B参数即超越百亿级模型,且具备水印鲁棒性。该系列开源后引发行业广泛应用,其技术被匹兹堡大学、普林斯顿大学等机构在学术研究中直接引用,重塑了OCR与多模态视觉理解的技术路线。
当然,最被熟知的还是郭达雅在DeepSeek期间提出的GRPO(群体相对策略优化)算法,后来被直接应用到R1的训练中,成为行业公认的关键方法论创新。
在开源模型领域,DeepSeek输出的不只是模型权重,更是一套被行业反复引用和跟随的技术路线图。
对于一个能够持续产出被行业follow方法论的团队,1-2次的融资动向并不意味着AGI方向的根本改变。
彼岸的镜子
对于"融资是否等于妥协"这个问题,大洋彼岸有一面现成的镜子,那就是Anthropic。
2024年,Anthropic的年化收入还在10亿美元左右。到2025年底,这个数字涨到了90亿美元。然后到了2026年4月,年华收入已经达到了300亿美元。
从10亿到300亿,用了大约15个月,而Anthropic做到这一切,并不依赖消费端的用户规模——
它的消费用户量大约只有ChatGPT的5%,更多靠的是企业API合同、开发者订阅和Claude Code。上线不到1年的Claude Code,在2026年2月的年化收入就已突破25亿美元。
更值得注意的是效率差异。
OpenAI到2030年的年训练成本预计为1250亿美元,Anthropic的同期预测是约300亿。同一场竞赛,4倍的成本差距。OpenAI预计2026年亏损140亿美元,Anthropic预计2027年实现正向自由现金流。
Anthropic证明了一件事:商业化与模型能力提升之间,不是非此即彼的零和关系。
通过B端API实现自我造血,不仅没有阻碍它成为顶尖模型提供商,反而支撑了它不受制于人的持续研发投入。
DeepSeek未必要走Anthropic走过的路,但它至少说明了一种可能性:有限度的商业化,可以为前沿研究探索提供更大的燃料。
AI前沿研发,本质上是一项高度不确定的探索活动。它和做App、做电商、做信息流完全不同,后者有明确的用户指标、转化漏斗和ROI公式,砸钱进去,产出是可以预测的。
但训练大模型,动手之前并不知道某个架构改动、某种数据配比、某条强化学习路径到底能不能跑通。
mHC论文的背后是多少次失败的尝试,V3.2的DSA机制经历了多少轮废弃的实验,外界永远看不到。
这意味着,这项事业天然不适合由那些KPI考核严格、投资回报周期明确的组织来主导。
大厂做AI,老板每个季度要看DAU和收入增长,项目组每半年要证明存在的合理性,一条路线如果两个季度没出成果,就会被砍掉换方向。
这种环境可以把成熟技术做到极致的产品化,但很难容忍那种"花了三个月发现此路不通、推倒重来"的研发节奏。
DeepSeek过去两年能在架构层面持续产出被行业follow的创新,恰恰是因为梁文锋给了团队一种"不考核、不设deadline"的试错空间。
但试错从来不是免费的。它的成本就是大量无法体现在论文里的废弃实验、走不通的技术路线、以及在成功之前被消耗掉的算力和人力。
幻方的利润能在过去两年承担这个成本,是因为Chatbot时代的试错代价还在可控范围内。
一旦进入Agent时代,参数规模跃升、训练周期拉长、每一次试错所消耗的资源都在成倍放大,而单靠幻方输血,试错的弹性就开始被压缩。
所以自我造血不只是一个财务问题,而是一个关乎研发自由度的问题。
有持续的收入流入,意味着即使某一轮探索失败了,也不会因为弹药耗尽而被迫收缩战线。
Anthropic能在2024年到2026年之间密集产出从Claude 3到Opus 4.7的多代模型迭代,底气正是API收入带来的正向现金流,这笔钱不需要向任何投资人解释用途,也不需要证明每笔开支都花在了"正确"的方向上。
它会给研发团队一种最稀缺的资源:犯错的权利。
DeepSeek如果通过有限度的商业化建立起一定规模的经常性收入,那它在下一代模型的研发中就多了一层缓冲,不是替代幻方的输血,而是在幻方之外再加一条供给线,让试错的空间不随算力通胀而萎缩。
改变与不能改变的
当然,还有一个问题需要审视:融资如果发生,是否会改变DeepSeek既定的前沿研究定位与AGI目标?
这绝非一个可轻描淡写的问题。融资这件事,天然携带治理结构、退出路径和时间约束。OpenAI引入微软之后发生了什么,整个行业都看在眼里——更强的产品化导向、更复杂的商业叙事、更大的迭代压力。
但判断妥协的标准,不应该是是否融资,而是融资是否改变了原本的研究方向。
如果DeepSeek是在融资之后才转向Agent,那可以叫路径修正。
但从已有的证据来看。例如2025年9月就被曝出正在开发Agent功能的模型,2025年12月V3.2就强化了Agent能力,2026年3月一口气放出17个Agent方向岗位。
这说明Agent本身就是DeepSeek既定路线的一部分,而不是融资之后的选择。
3亿美元的融资规模,在今天的AI市场也谈不上多大规模。xAI刚刚做了200亿美元的E轮,OpenAI以8520亿美元估值融了1220亿。3亿美元更像是一笔战略补给,而非方向性投降。
因此,把这次融资简单理解为"向资本低头",是用Chatbot时期的框架去理解一个已经进入Agent时代的AI行业。
真正发生变化的不是DeepSeek的立场,而是AI发展的阶段。当模型从回答问题演进为执行任务,当推理成本逼近训练成本,当人才竞争从"比理想"升级为"比确定性",当Agent的训练需要的不只是算力而是复杂的真实场景,那些原本可以依靠方法论效率弥补资源差距的窗口期,正在收窄。
在这个窗口收窄的节点上,DeepSeek既需要保证纯粹性,也需要探索技术路线的过程中,为下一阶段的竞争储备弹药、锁定人才、接入场景。
不是DeepSeek需要资本,是Agent时代需要一个资源配置更完整的DeepSeek。
*本文为全天候科技原创作品,未经授权不得转载,如需转载,请在后台回复“转载”二字,获取转载格式要求。
本文来自微信公众号“全天候科技”(ID:iawtmt),作者:松壑,36氪经授权发布。