分享好友 健康资讯首页 健康资讯分类 切换频道

GPU时代落幕?硅谷巨头集体「叛逃」,英伟达1500亿疯狂自救

2026-03-07 21:0011036kr

再过两周,黄仁勋将站上GTC 2026的舞台。

他提前放了话:「我们准备了几款世界上前所未见的全新芯片。」

底气来自一份炸裂的成绩单——

英伟达2026财年年收入2159亿美元,净利润翻倍,数据中心业务三年翻了13倍。

在财报电话会上,CFO直接甩出一个数字:客户已经部署了9吉瓦的Blackwell基础设施!

但诡异的一幕出现了。

财报发布当晚,英伟达盘后一度涨超4%。随后股价悄然转跌,次日直接低开低走,收跌5.46%,一夜蒸发数千亿美元市值。

华尔街不是看不懂数字,是看懂了趋势。

前有Anthropic甩出210亿美元订单,全面采购基于谷歌TPU的算力系统;后有Meta跟谷歌签下数十亿美元芯片大单,大规模租用TPU训练模型。

为了给编程带来接近实时的响应体验,OpenAI更是历史上首次将主力级产品GPT-5.3-Codex-Spark,部署在了更低延迟与更低能耗的非GPU芯片Cerebras上。

英伟达最大的几个客户,正在集体分散筹码。

全球AI芯片中GPU架构和非GPU架构比例(数据来源:高盛全球投资研究部)

根据摩根大通的产能报告,谷歌计划在2027年部署600至700万颗TPU,大部分供给Anthropic、OpenAI、Meta和苹果等外部客户。

高盛投资研究部的模型显示,全球AI服务器中非GPU芯片出货占比,将从2024年的36%升至2027年的45%

类似的,IDC也预测,到2028年,中国非GPU服务器市场规模占比将逼近50%

GPU的致命短板

一个更深层的转折正在发生:AI的竞争焦点,正从单纯的算力规模,转向对能效比与延迟的极致追求。

过去拼谁卡多、谁集群大。

现在拼的是,同样花一块钱,谁能吐出更多Token。

「每美元产生的Token数」正在取代峰值算力,成为衡量芯片商业价值的核心指标。

究其原因在于,GPU的架构决定了,每次计算时数据都要在外部显存和计算单元之间来回搬运。

路径长、次数多,能耗就高、延迟就大。堆更多卡解决不了这个问题。

路透社爆料,OpenAI已多次表达对英伟达芯片的「不满」——响应速度没达预期,在代码生成产品Codex上感受尤为明显。

压力迫使英伟达这条「巨龙」寻求改变。

图灵奖得主David Patterson教授在最新研究中指出,大模型每次token生成都绕不开数据搬运,而搬运能耗远高于计算本身。

未来的核心命题是「让数据离计算更近」。

为此,他给出了三个AI芯片的演进方向:近内存处理、3D堆叠、低延迟互连。

实际上,这些都指向同一件事——用架构创新降低数据搬运的能耗和延迟。

换句话说就是,谁能用更低的能耗、更低的延迟跑通下一代模型,谁就能在未来十年的算力牌桌上占得先机。

谷歌TPU杀向商用市场

一直以来,谷歌TPU专供自家大模型训练和推理,外人用不到。

去年开始,谷歌把TPU推向了商用。

订单随即涌入。

博通CEO透露,Anthropic下了210亿美元的大单;Meta签下数十亿美元TPU租赁协议;潜在客户还包括苹果和已与SpaceX合并的xAI。

原因不难理解。大模型进入规模化落地阶段,算力需求爆发、成本压力加剧,单一依赖GPU的瓶颈越来越明显。而谷歌TPU的性能,已经具备与顶级GPU分庭抗礼的实力。

2025年推出的第七代TPU,是谷歌迄今为止性能最高、可扩展性最强的AI芯片——

单芯片峰值算力4614 TFLOPS(FP8精度),最大集群9216颗芯片、总算力达42.5 EFLOPS。

划重点:TPU v7在同等算力输出下功耗仅为英伟达B200的40%至50%。

不仅如此,谷歌自研的光电路交换机(OCS)技术,还让万卡级集群实现近乎线性的加速比。相比之下,传统GPU集群规模越大,通信损耗越严重;而TPU集群基本不吃这个亏。

Google TPU v5e、v5p、v6、v7芯片关键性能对比

谷歌TPU崛起还有更为直接的例证:在TPU上训练的Gemini 3,在多个权威基准测试中位居榜首,为业界顶尖模型之一。

回到成本账上。

TPU凭借AI专用架构带来的2-4倍能效优势,将大模型推理的综合成本相比GPU拉低50%以上。而这正是Anthropic、Meta们用订单投票的根本逻辑。

当下,大多数大模型企业已经在用TPU+GPU的组合来缓解成本压力。

去年11月,半导体研究机构SemiAnalysis对比大模型公司的采购成本后发现:与OpenAI相比,同时使用TPU与GPU的Anthropic,在与英伟达谈判时拥有更强的议价权。

手里有TPU,就多了一张跟老黄讨价还价的牌。未来头部AI公司大概率都会走「多芯片并行」路线。

OpenAI与Anthropic购买算力的成本对比

性能跨越式提升,顶尖大模型规模化验证,头部公司主动布局——TPU已从算力产业的补充路线,升级为主流路线。

英伟达一家独大的格局,正在被改写。

十年磨一剑,「TPU之父」要造下一代AI芯片

2025年底,英伟达斥资200亿美元,拿下AI芯片创企Groq的核心技术和团队。

这是英伟达史上最大的一笔交易,溢价近三倍

Groq创始人Jonathan Ross,被称为「TPU之父」,谷歌TPU的核心设计者之一。离开谷歌后,他创立Groq的目标很明确:做一颗超越谷歌TPU的芯片

两者的差异在架构。

谷歌TPU走的是「固定架构+集群扩展」路线。

其中,芯片内部搭载固定计算单元,依托二维数据流运算;芯片间通过3D Torus拓扑实现高效互联。架构稳定,但灵活性有限。

谷歌TPU架构

Groq的TSP(Tensor Streaming Processor)则是一种「软件定义硬件」的数据流处理器。

其核心理念是,通过构建可重构的软硬件系统,在保持可编程性的同时,达到接近ASIC的极致性能。

具体来说,芯片内部做了功能切片化微架构设计,配合软件层的灵活配置,可根据不同任务实时调整计算逻辑和数据流路径。

同时,依托大容量片上SRAM及静态调度机制,显著提升了数据访存效率并降低搬运能耗。

美国DARPA「电子复兴计划」(ERI)高度看好「软件定义硬件」方向,将其列为国家级战略核心。这也是Groq被称为「高阶TPU」的原因。

数据显示,在相同推理任务中,Groq芯片首token延迟比谷歌TPU v7降低20%至50%,每token成本降低10%至30%。

这场芯片革命,才刚开始加速

Groq被收编,但「高阶TPU」的进化没停。

国内清微智能、海外Cerebras等公司正在高效数据流动态配置和先进集成方式上持续突破。

1. 通过3D Chiplet技术构建三维立体数据流架构。

具体来说,「计算核心+3D DRAM芯粒」的组合在垂直与水平两个维度上形成了高效的数据流计算模式,突破了传统二维架构的效率局限。

三维架构可以依据计算任务的需求和数据特性,在两个维度上灵活调度数据流,最大化缩短传输路径,降低搬运过程中的延迟与能耗,从而进一步提升整体计算效率。

2. 依托算力网格技术构建灵活数据流计算范式。

传统固定组网存在扩展性和语义适配瓶颈。而算力网格技术则可以通过灵活组网,实现Scale up与Scale out的协同。

根据AI任务特性,系统能实时下发数据流的动态配置信息,在多种互联拓扑结构间灵活切换、精准调度。最终降低互联延迟,充分释放数据流架构的算力。

3. 通过前沿的晶圆级芯片技术,将数据流架构的优势发挥到极致。

这项技术将数据流架构从芯片尺度扩展到整片晶圆。

在整张晶圆上高密度集成大量计算核心,计算核心间的互联距离被极大缩短。带来的结果是,互联带宽实现数量级提升,通信延迟大幅降低。

数据流架构的算力规模与计算效能由此被推到极致。这也是为什么晶圆级芯片被视为数据流计算架构的理想物理载体。

以Cerebras为例。

数据显示,Cerebras CS 3系统推理性能比英伟达旗舰DGX B200快21倍,成本与功耗均降低三分之一,在算力、成本、能效上展现出显著的综合优势。

在实测中,OpenAI的Codex-Spark跑出了每秒超1000 token的生成速度,让代码编写第一次有了实时交互的体验。

Cerebras CS-3 vs英伟达GPU:大模型推理速度对比

GPU独霸的时代,回不去了

谷歌TPU走出围墙,OpenAI拥抱晶圆级芯片,英伟达天价收编Groq。

这些信号均指向同一个方向:TPU已变成巨头们真金白银押注的主战场。

算力世界的单极时代,正在被多元架构终结。

决定下一代AI天花板的,不是算力堆砌的军备竞赛,而是能耗、延迟、确定性共同构成的新指标。

对国产芯片来说,这场变局既是机遇也是挑战。 跟随者只能分残羹,走出自己的底层创新之路,才有资格参与下一轮全球算力洗牌。

参考资料: 

全球算力格局震荡,“高阶TPU”崛起! 

https://www.theinformation.com/articles/google-strikes-multibillion-dollar-ai-chip-deal-meta-sharpening-nvidia-rivalry

https://groq.com/newsroom/groq-and-nvidia-enter-non-exclusive-inference-technology-licensing-agreement-to-accelerate-ai-inference-at-global-scale

https://openai.com/index/introducing-gpt-5-3-codex-spark/

https://cloud.google.com/blog/products/compute/ironwood-tpus-and-new-axion-based-vms-for-your-ai-workloads 

本文来自微信公众号“新智元”,编辑:好困 桃子 ,36氪经授权发布。

举报
收藏 0
打赏 0
评论 0
抛弃“不作恶”,谷歌和五角大楼签订协议、承接美军机密AI业务,超700名员工联名反对
谷歌,这个曾以“不作恶”为行为准则的科技巨头,如今正深陷一场前所未有的内部风暴。28日,美国消费者新闻与商业频道(CNBC)援引科技媒体“The Information”报道,谷歌已与美国国防部签署协议,承接机密人工智能业务。一位知情人士透露,美国国防部正将谷歌的最新模型用于机密项目。这个项目遭到了谷歌员工的强烈反对。CNBC报道称,本周,700余名谷歌员工联名致信公司首席执行官桑达尔・皮查伊,要

0评论2026-04-2912

一季度净利环比暴增27倍,剑桥科技股价一年涨三倍,险资与社保基金加仓,股东高管减持
4月27日盘后,光模块概念大牛股剑桥科技(603083.SH、06166.HK)发布2026年一季报,公司一季度营收同比增长43.98%至12.87亿元;归母净利润同比增长276.44%至1.18亿元。从环比来看,剑桥科技今年第一季度营收环比下滑约12%;净利润环比增长2722.62%,而2025年第四季度归母净利润环比下跌近97%。作为光模块大牛股,剑桥科技H股曾在11个交易日完成了翻倍,4月2

0评论2026-04-2912

32美元一辆车,Tesla为什么不认?(下)
本案真正值得关注的,不只是Tesla能不能把Avanci平台价格拉进英国法院。更重要的是,如果法院最终认为这类平台许可条款不能进入FRAND审查,那么未来SEP权利人通过专利池、平台、集体许可安排对外收费时,实施者还能不能有效挑战其许可条件?这才是本案超出Tesla、InterDigital和Avanci三方争议的地方。从表面看,Avanci提供的是一种提高交易效率的许可方案。大量SEP权利人把专

0评论2026-04-2912

“保本”又“看病”?监管部门约谈健康险公司,中介平台下架热销“医疗金”产品
早在前两年,市场上就出现了带有一般医疗保险金账户的产品。随着利率下行以及市场需求增长,这类产品的资产增值属性被放大,经过长期现金价值积累,配合可以累积的医疗保险金,使得产品有着不输理财型产品的收益率,这也是引起监管部门关注的原因之一。2026年4月初,当保险经纪人小李带着客户在同仁堂线下门店参加体验活动时,他可能不会想到,体验活动中的重磅产品“岁月长安·特定疾病保险(互联网版)”即将面临下架。4月

0评论2026-04-297