谷歌不想赢英伟达

日期:2026-04-28 16:28:26 / 人气:2


英伟达和谷歌,两场大会,两个人,说了同一个词,却道尽了两种截然不同的竞争逻辑。
3月16日,圣何塞,GTC 2026大会现场,黄仁勋站在舞台中央,将数据中心定义为“生产Token的工厂”,并抛出一个震撼行业的判断:到2027年,这个市场的需求规模至少达到1万亿美元。
4月22日,拉斯维加斯,Google Cloud Next 2026大会上,桑达尔·皮查伊则用一组鲜活的数据给出回应:谷歌每分钟处理160亿个token,而上个季度这一数字还是100亿;与此同时,谷歌宣布今年的资本开支将达到1750亿至1850亿美元。
两个人都在谈Token,但内核截然不同:一个在描述供给的巨大潜力,一个在展示需求的真实体量;一个在定义“如何生产”,一个在诠释“如何消耗”。
过去很长一段时间,外界习惯性地将谷歌放在“追赶者”的位置,认为它在AI算力领域始终落后于英伟达。但当我们把这两场大会放在一起审视就会发现,一个更关键的变化正在发生:这从来就不是同一场竞争,谷歌也从未想过在英伟达的主场赢下比赛。
一、卖铲子的,和造工厂的
理解谷歌与英伟达的差异,首先要认清它们各自在AI产业链中的核心定位——本质上,它们卖的是完全不同的东西。
英伟达的核心产品,是AI时代的“生产资料”。其GPU作为通用算力载体,几乎包揽了全球头部AI玩家的需求:从OpenAI、Meta到字节跳动,从主权基金到各类科技企业,几乎都在它的客户名单上。更关键的是,CUDA生态经过二十年的持续迭代,已汇聚超600万全球开发者、900余个CUDA-X加速库,形成了难以撼动的生态飞轮,成为AI算力底层的“标准件”。
黄仁勋曾有一句极具代表性的判断:“即便竞争对手的架构是免费的,也未必足够便宜。”这句话背后,是英伟达无可比拟的市场地位——2025财年,其数据中心业务收入超过1150亿美元,同比增长超200%,毛利率维持在75%以上,在全球AI加速器市场占据约80%的份额。换句话说,每10块AI算力芯片中,至少有8块来自英伟达。
这是一门典型的“卖铲子”生意,而且是所有人都离不开的那种——无论你想搭建什么样的AI模型、开展什么样的AI业务,都离不开英伟达提供的算力工具。
谷歌的路径则完全不同,它提供的不是单一工具,而是一整套AI运行体系。从自研TPU芯片,到训练Gemini大模型,再到依托Google Cloud对外提供服务,谷歌实现了从底层算力到上层应用的全链路打通。目前,Google云业务年收入已接近600亿美元,过去一年增长近50%,而AI相关需求正是其最核心的增长驱动力。
这种模式,更像是谷歌先自己搭建了一座完整的“Token工厂”,将算力、模型、应用融为一体,先满足自身的海量需求,再把多余的产能通过云平台对外输出。英伟达的逻辑是“把设备卖给所有人”,谷歌的路径则是“先把体系跑起来,再让别人接入”;一个掌握生产资料,一个组织生产过程,两者的竞争维度从一开始就截然不同。
二、TPU一刀切两半:从通用到专属的战略转向
本次Google Cloud Next大会上,TPU的最大变化,不在于参数的提升,而在于结构的拆分——这是谷歌TPU发展史上的一次关键战略转向。
从2017年TPU v2问世,到2025年v7 Ironwood迭代,整整六代产品,谷歌始终采用单颗通用芯片,同时承载大模型训练与推理两大核心任务。这种模式虽能兼顾通用性,却无法适配不同任务的负载特征,难以实现效率最大化。
直到第八代TPU发布,谷歌首次彻底拆分功能,推出两颗专属独立芯片:TPU 8t与TPU 8i。其中,TPU 8t代号Sunfish,由博通设计,采用台积电2nm工艺,专门负责大模型训练;单个超级Pod(由9600颗芯片组成)的峰值算力达到121 EFLOPS(FP4精度),是上一代产品的2.8倍,而价格保持不变,能将前沿模型的开发周期从数月缩短至数周。
另一款TPU 8i代号Zebrafish,由联发科设计——这也是联发科首次进入超大规模数据中心芯片领域,其核心定位是专门负责推理任务。相比上一代,TPU 8i的性价比提升80%,集合操作延迟最高降低5倍,完美适配推理场景的低延迟、高并发需求。
拆分的原因直白且现实:Agent时代,推理和训练的负载特征已完全不同。一个智能体完成任务,往往需要多次调用模型,每一次调用都要求低延迟、高并发;而训练阶段则更需要集中算力,追求高效的模型迭代。一颗芯片同时兼顾两项任务,只会导致“哪头都凑合,哪头都不够好”。
背后的算账逻辑也十分清晰:训练是一次性投入,模型训好即可;而推理是持续性消耗,用户每使用一次AI服务,就会产生一次推理需求。当谷歌每分钟处理的token从100亿跃升至160亿,推理端的效率已直接决定其成本结构。这也解释了两家公司的技术路径差异:英伟达持续优化单颗芯片的性能,追求极致的算力输出;谷歌则更关注集群效率与整体成本,追求全链路的性价比最大化。
三、Anthropic的一百万颗芯片:TPU的破局信号
TPU从谷歌内部工具走向外部市场,有一个标志性事件:开始承载全球头部模型公司的核心负载。
2025年10月,Anthropic与谷歌签署一份多年期协议,约定最多使用100万颗Ironwood TPU,这笔交易价值数百亿美元,成为AI历史上最大的单笔算力交易。紧接着,Meta传出消息,计划从2027年起部署TPU——消息一经披露,英伟达股价当天大幅下跌。
对英伟达而言,这是最危险的信号:不是某个小公司在试水,而是Anthropic、Meta这样的全球头部大模型公司,都开始将最核心的推理负载押注在TPU上。这意味着,英伟达长期以来的市场垄断地位,正在被打破。
谷歌的策略十分明确:以Anthropic和Meta为样板客户,用实际场景证明TPU能够替代英伟达GPU,再通过Google Cloud平台,将TPU算力开放给所有企业,逐步抢占市场份额。如果说英伟达的核心优势在于CUDA生态形成的强绑定,那么谷歌的突破口,就在于成本控制。
Ironwood TPU的核心目标,就是显著降低企业的总拥有成本(TCO)。精密分析显示,其每美元性能/价格比较前代提升2倍,相比NVIDIA B200在总拥有成本上具有约30%~41%的优势,能有效帮助企业控制推理阶段的成本支出。有行业研究表明,TPU在推理阶段的单位成本已追平英伟达GPU,AI芯片竞争的核心评价体系,正从“谁算得更快”转向“谁算得更便宜、更可持续”。
当推理成本被压到对手的一半以下,英伟达的软件壁垒就开始松动了。对企业而言,省下来的成本,足够覆盖从GPU迁移到TPU的迁移成本——技术壁垒依然存在,但经济驱动正在改变企业的选择。
四、160亿token背后的真话:需求侧的绝对优势
皮查伊在Cloud Next大会上提到的三个数字——160亿token/分钟、75%的新代码由AI生成、1750亿至1850亿美元的资本开支,看似分散,实则指向同一件事:谷歌已成为AI时代基础设施级的Token消费体。
这些token的消耗,并非只来自API调用,还涵盖了谷歌的核心业务:搜索、广告、YouTube推荐、安全系统,以及内部开发。从100亿token/分钟到160亿,单季度增长超过60%,按此规模估算,谷歌每天处理的token已达到万亿级。作为对比,当前全球头部模型公司的API调用,大致处于数百亿到千亿token/天的区间——谷歌的需求体量,早已超出单一模型公司的范畴。
这与黄仁勋提出的“Token工厂”形成了鲜明对照:黄仁勋描述的是一个卖方市场,Token是商品,GPU是生产设备,他甚至在GTC大会上替行业设计好了Token的定价体系,从免费到150美元每百万token,覆盖不同层级的需求。英伟达围绕供给侧构建体系,定义产能;谷歌则在放大需求侧规模,吞下产能。而长期来看,需求终将反过来塑造供给。
谷歌对TPU性价比的优化动力,远超任何外部客户——因为每降低一分钱的推理成本,省下来的钱首先进入的是谷歌自己的口袋。本质上,谷歌就是全世界最大的Token消费者,优化TPU、降低成本,既是服务客户,更是服务自身业务的核心需求。
五、谁会赢?从来不是同一场比赛
短期来看,英伟达依然是赢家。CUDA生态的深厚壁垒、80%的市场份额、75%以上的毛利率,这些优势不会一夜之间被颠覆。黄仁勋直言,到2027年,英伟达将迎来至少1万亿美元的确定性算力需求,其中60%来自全球前五大超大规模云厂商,剩余40%分散于企业私有部署、主权云、边缘计算及全行业场景——这份预判,底气十足。
但谷歌正在做一件更关键的事:将竞争拉到英伟达不擅长的维度。本次Cloud Next大会上,谷歌公布了一系列重磅合作:GE在谷歌的Agent平台上部署了超过800个智能体,覆盖制造、物流和供应链等领域;毕马威首月部署超过100个智能体,90%的员工已在使用;默克签署了10亿美元的合作合同。
更值得关注的是,谷歌云CEO库里安公开确认,基于Gemini技术构建的苹果新一代Siri将于2026年发布。这笔合作源于2026年1月双方签署的多年期协议,谷歌作为苹果的首选云服务商提供核心技术支持,每年价值约10亿美元。为保障用户隐私安全,协议严格限制谷歌接触用户数据,所有数据处理均在苹果控制的服务器上进行,苹果还将大型Gemini模型知识蒸馏至更小版本,以便在iPhone等设备端运行,兼顾性能与响应速度。
当企业客户的需求,从“买一块GPU”变成“帮我管住一千个Agent”,卖芯片的就很难再比过卖系统的了。英伟达解决的是“有没有算力”的问题,而谷歌要解决的是“算力怎么被用起来”的问题——前者是工具提供商,后者是解决方案服务商,两者的核心价值主张完全不同。
这从来不是“谁杀死谁”的故事。就像石油行业,既有卖钻头的哈里伯顿,也有自己钻井、炼化、零售一条龙的沙特阿美,两种模式会长期共存。但有一件事正在发生根本性变化:过去,英伟达是所有人的唯一选择;现在,谷歌证明了另一条路走得通——Anthropic选了TPU,Meta在考虑TPU,苹果把Siri交给了谷歌Gemini。
选择变多了,对垄断者来说,这就是最大的威胁。
ChatGPT问世后的两年多里,谷歌看起来确实像一个追赶者,在大模型竞赛中始终显得有些被动。但Cloud Next 2026大会,谷歌讲了一个完全不同的故事:它没有赢下模型竞赛,却把AI重新拉回了“基础设施”的本质问题。
而做基础设施,恰恰是谷歌最擅长的事。
谷歌从来不是在追赶英伟达,也并非想在芯片战场打败英伟达。从一开始,它们跑的就不是同一场比赛——英伟达要做AI时代的“算力之王”,谷歌则要做AI时代的“基础设施之王”。

作者:欧皇娱乐




现在致电 8888910 OR 查看更多联系方式 →

欧皇娱乐 版权所有