营收57000000000美元,英伟达:泡沫?什么泡沫

Source

2025 年 11 月 19 日,美国东部时间下午 5 点,英伟达发布2026 财年第三季度财报。

这一季的数据很夸张:营收 570 亿美元,同比增长 62%,环比多了整整 100 亿美元(+22%),数据中心业务继续飞奔,网络、计算、汽车、专业可视化全部双位数增长。但比数字更值得编译和整理的,是管理层在电话会里给出的那套逻辑:

他们几乎把所有关于“AI 泡沫”的质疑,重新改写成了一场“三次平台大迁移 + 十年基础设施周期”的故事。

基于这份电话会议记录,本文对管理层的核心观点做了一次系统的编译和梳理。

一、成绩单:570 亿美元的大头,几乎都来自 AI 工厂

先把关键数字捋清楚:

  • 总收入: 570 亿美元,同比 +62%,环比增加 100 亿美元(+22%)。
  • 数据中心收入: 510 亿美元,同比 +66%,再创新高,几乎就是整家公司。
  • 网络收入: 82 亿美元,同比飙升 162%,靠的是 NVLink、InfiniBand 和 Spectrum X 以太网。
  • 计算部门: 同比 +56%,核心驱动力来自 GB300 GPU 的放量,Hopper 平台本季仍贡献了约 20 亿美元收入。
  • 游戏业务: 43 亿美元,同比 +30%,主要是游戏玩家和本地 AI 需求的叠加。
  • 专业可视化: 7.6 亿美元,同比 +56%,DGX Spark 被点名是关键贡献者。
  • 汽车业务: 5.92 亿美元,同比 +32%,自动驾驶解决方案是主力。

盈利能力同样“变态”:

  • GAAP 毛利率: 73.4%,
  • Non-GAAP 毛利率: 73.6%, 都比之前的指引更高。Colette Kress 解释,主要得益于数据中心产品组合、生产周期时间改善以及成本结构优化。

但也不是全是甜蜜,电话会一上来就坦白了三点风险:

  1. 中国收入被“掐断”: 由于地缘政治和本地竞争,本季度原本计划的大额订单没有落地,直接影响了高端数据中心计算产品对中国的出货。Colette 还明确表示,在 Q4 的指引里,“我们没有假设来自中国的任何数据中心计算收入”
  2. 投入成本在上升: 面向 2027 财年,内存等关键元件价格抬头,系统复杂度也在增加。公司一边加大采购锁价,一边强调,仍会努力把毛利率“压在 70% 中段”。
  3. 库存和供应承诺同步上扬: 库存环比增加 32%,供应承诺环比增加 63%。管理层的态度是:这是主动为未来更大规模的增长“铺货”,而不是需求不行的被动堆库存。

展望第四季度,指引同样激进:

  • Q4 收入指引: 650 亿美元,上下浮动 2%,按中值算环比还要再涨 14%,主要由 Blackwell 架构继续放量带动。
  • 毛利率指引: GAAP 和 Non-GAAP 都预计维持在 70% 中段,尽管投入成本上涨。

从这张“财务快照”可以看出一个核心事实:

英伟达现在的财报,其实就是一张全球 AI 工厂建设进度表。

二、CFO 的视角:三大平台转型 + 5000 亿 Blackwell/Rubin 收入蓝图

在财务数字之后,CFO Colette Kress 用相当长的一段话,把这季的增长放进了一个更大的框架里:

“三大平台转型”还在早期

她强调,客户现在集中在三条主线做投入:

向加速计算迁移

从传统 CPU 通用计算,转向 GPU 加速计算,把原本跑在 CPU 上的大量数据处理、科学计算工作负载搬到 CUDA 平台上。

向大模型/生成式 AI 迁移

搜索、推荐、内容理解、广告排序,从传统机器学习体系切换到大模型,重写生产线。

向智能体(Agent)应用迁移

自主推理、规划、调用工具的“智能代理 AI”,开始渗透到编程、医疗、金融、运营等业务线。

她的判断是:这三件事都还在早期阶段,“会波及所有行业”。

Blackwell + Rubin:到 2026 年底要拿下 5000 亿美元营收

Colette 给了一个颇具争议、但已经被资本市场广泛引用的数字:

从今年开始到 2026 年年底,Blackwell 和 Rubin 两代平台,合计营收目标是 5000 亿美元。

电话会记录里,她再次确认这一目标“正在推进”:

  • 部分收入已经在过去几个季度确认;
  • 接下来还有几个季度会持续兑现;
  • 而且,这 5000 亿本身还有“上调空间”:比如当天刚刚宣布的与沙特的合作,未来三年新增 40–60 万块 GPU;和 Anthropic 的协议,同样是原先规划之外的增量计算需求。

在她的叙事里,英伟达的角色很明确:

要在未来十年走向年均 3–4 万亿美元规模的全球 AI 基础设施建设里,做“首选平台”。

“云已售罄”:GPU 安装基础完全被吃满

Colette 多次重复一个说法:“云服务已售罄(clouds are sold out)”;Blackwell、Hopper、Ampere 等几代 GPU 的安装基础 “全部在满负荷运行”。第三季度数据中心收入 510 亿美元,就是在这样的高稼动率之上做出来的。配合这点,她给出了一串“案例库”,说明这些算力在被用在什么地方:

  • 互联网平台:Meta 用基于 GPU 集群训练的 Gem 广告推荐基础模型,让 Instagram 广告转化率 +5%,Facebook 信息流 +3%;用户在 Facebook、Threads 等应用上花的时间明显上升。
  • 基础模型公司:OpenAI:周活用户 8 亿,企业客户超过 100 万,毛利率保持健康;Anthropic:年化营收从年初的 10 亿美元,涨到 70 亿美元。其他名字还包括 Mistral、Reflection、Safe Superintelligence、xAI 等。
  • 垂直场景:RBC 用智能体 AI 把分析师写报告的时间,从几小时压缩到几分钟;联合利华通过 AI + 数字孪生,让内容创作效率提升 2 倍、成本下降 55%;Salesforce 工程团队使用 Cursor 后,新代码开发效率至少提升 30%。

这些例子共同指向一个判断:

AI 基础设施的投入,已经开始在真实业务里“找回报”,而不止停留在“创新预算”。

五百万 GPU 的 AI 工厂计划

本季英伟达还宣布了一串 AI 工厂和基础设施项目,总量涉及 约 500 万块 GPU,覆盖:

  • 公有云 CSP、主权国家数据中心;
  • 制药、制造等行业的“AI 工厂”;
  • 标志性项目包括:xAI 的 Colossus 2 —— 全球首个千兆瓦级数据中心;礼来(Eli Lilly)的 AI 工厂,用于药物研发;AWS + Humane 的扩展合作:部署多达 15 万台 AI 加速器(包括 GB300),以及一座 500 兆瓦的旗舰 GPU 数据中心。

在这套叙事下,“570 亿营收”只是起点,真正让市场紧张的是:

未来两三年,这家公司打算吃下多大一块 AI 基建蛋糕。

三、黄仁勋的“反泡沫”故事:三次平台大迁移

轮到黄仁勋发言时,他没有先谈估值,而是直接回应了“泡沫”这个词:

“关于人工智能泡沫的讨论很多。 从我们的角度来看,我们看到的是截然不同的情况。

他的核心论点,可以浓缩成一句话:

世界正在同时经历三次巨大的平台级迁移,而英伟达刚好站在这三次迁移的交叉点。

第一次迁移:从 CPU 到 GPU 的加速计算

  • 摩尔定律放缓,传统 CPU 性能/成本的提升越来越难;
  • 大量原本跑在 CPU 上的非 AI 工作负载——数据处理、科学与工程仿真等——正向 CUDA GPU 迁移;
  • 这一层迁移,本质上是为了 延续“算力通缩”:用更低的单位成本获得更多计算

黄仁勋把这部分定义为“基础且必要的转型”:

“在后摩尔定律时代,这是至关重要的。”

第二次迁移:从传统机器学习到生成式 AI

第二层,是我们熟悉的那波浪潮:

  • 搜索排序、推荐系统、广告投放、内容审核等,正在从传统 ML/深度学习体系,迁移到基于大模型与生成式 AI 的范式;
  • Meta 的 Gem 模型就是典型案例:依托大规模 GPU 集群训练,把广告推荐效果实打实抬高了几个百分点,这直接体现在收入上。

在这层上,AI 不再只是“节约成本”的工具,而是 直接带来营收增量的引擎

第三次迁移:向智能体和物理 AI

第三层,是“智能体 AI”和“物理 AI”:

  • 这类系统具备 推理、规划和使用工具 的能力;
  • 从代码助手(Cursor、Claude Code、GitHub Copilot),到医疗放射影像助手(iDoc)、法律助手(Harvey),再到自动驾驶司机(Tesla FSD、Waymo),都被他归类为“智能代理 AI”;
  • 更往下,是与机器人、工厂、车队、城市基础设施深度耦合的“物理 AI”:利用 Omniverse 做数字孪生工厂的台积电、丰田、富士康、Lucid 等;用 Jetson 平台和 Cosmos 世界模型做人形/移动机器人开发的 Agility Robotics、Amazon Robotics、Figure 等。

在他看来,这一层会带来 全新的应用、产品、公司和服务,是最具颠覆性的一层。

英伟达如何把三次迁移“捏”在一起?

黄仁勋的自我定位是非常“野心家”的:

  • 在加速计算的迁移中,CUDA + GPU 是最成熟的方案;
  • 在生成式 AI 迁移中,英伟达在训练、后训练(推理前的强化、微调)和推理三个阶段,都有一整套软件栈和硬件组合;
  • 在智能体和物理 AI,从数据中心到机器人边缘设备,一条链路都在用同一套架构。

他说得很直白:

“无论是 AI 的每个阶段,还是各种不同的计算需求, 我们的架构都是通用的。 你可以投资一种架构,然后在所有这些阶段和工作负载上放心使用。”

这就是他对“泡沫”质疑的整体回应:

资本市场看的是市值曲线,而他强调的是: 三条不同性质的迁移曲线,正在同时发生,且都压在英伟达的 GPU 上。

四、关键问答:5000 亿订单、供给瓶颈与中国风险

电话会议的 Q&A 部分,补足了很多关键信息。挑几个重点说。

5000 亿 Blackwell + Rubin 收入,还靠谱吗?

摩根士丹利的 Joseph Moore 追问:

GTC 上提的 2025–2026 年 Blackwell + Rubin 5000 亿美元收入预期,现在还有没有变化?

Colette 的回答是:

  • 目标没变,“我们正在按这个路径执行”;
  • 5000 亿中已经有一部分在前几个季度确认;
  • 接下来到 2026 年底,还有几个季度会持续贡献;
  • 而且,“这个数字有上调可能”:和沙特的协议,在未来三年新增 40–60 万块 GPU;与 Anthropic 的合作,则带来了高达 1 吉瓦算力承诺。

——这些,都还没算在最初的 5000 亿里。

供应能不能赶上需求?ROI 会不会撑不住?

Cantor Fitzgerald 的 C.J. Muse 问了一个所有人都在想的现实问题:

一边是大家担心 AI 基础设施建设太烧钱、ROI 与融资能力成问题; 另一边是你们自己又在说“GPU 全部售罄、云都卖空了”。 那么未来 12–18 个月里,供应会赶上需求吗?

黄仁勋的回答重点有三:

  1. 供应链规划英伟达的供应链覆盖台积电及其封装、内存供应商、系统 ODM 等,“我们和他们做了非常长周期的规划”;“我们原本就计划迎来一个大年”,而现在的需求增长,印证了他们对三个转型的判断。
  2. 需求结构:不仅仅是“聊天机器人”在用 GPU,从数据处理到推荐系统,从生成式 AI 到各种 agent 工具,哪一层都在吃 GPU,且增速都很快。
  3. ROI 来源:一部分投资来自 通用计算迁移,本质上是为了延续“算力通缩”;一部分投资来自 生成式 AI 提升现有业务收入;还有一部分来自 全新的 agentic & 物理 AI 应用

换句话说,他认为 需求是真实且多层次的,而不是单一领域炒作。

每吉瓦能卖多少钱硬件?谁来为三四万亿 AI 基建买单?

BofA 的 Vivek Arya 问得很具体:

  • 在你口中的 5000 亿里,你假设的“每 1 吉瓦数据中心对应多少美元硬件”是多少?
  • 到 2030 年,全球数据中心 3–4 万亿美元投资中,有多少需要靠供应商融资,有多少可以由客户自己现金流支持?

黄仁勋给出了一组有参考意义的量级(非精确指引):

  • 在 Hopper 这一代,一个 1 吉瓦数据中心,相当于大约 20–25 亿美元 的英伟达数据中心产品;
  • 到 Grace Blackwell/GB200,可能来到 30 亿美元以上
  • Rubin 一代会更高,因为每瓦性能进一步提升。

关键句是这句:

“一个吉瓦数据中心就是一个吉瓦功率。 你的每瓦性能,几乎直接决定你的收入上限。

这背后的逻辑是:

  • 电力是刚性约束:一个园区就是 1 吉瓦电进来,不会无限扩张;
  • 在同样的 1 吉瓦电、同样的机房面积下,谁的架构性能/瓦更高,谁就能卖出更多的硬件票面;
  • 因此,架构效率不只是技术指标,而是收入天花板

至于“谁来为 3–4 万亿买单”,他的回答更宏观:

  • 不能只盯着美国几大云厂商;
  • 每个国家都会为自己的 AI 基础设施买单;
  • 大多数行业的 agentic AI、物理 AI 才刚刚开始,未来会有一波又一波新的融资主体加入。

中国市场:短期清零,长期仍想“留门”

关于中国,Colette 的表态比较直接:

  • 本季度原计划的大额订单并未落地,H20 销售额仅约 5000 万美元;
  • 原因是 地缘政治 + 中国本地竞争加剧
  • 因此公司在 Q4 指引中,假设来自中国的数据中心计算收入为 0

但黄仁勋也强调,英伟达会持续同中美两国政府沟通,长期目标仍然是:

“要在包括中国在内的所有商业企业中,成为开发者和企业的首选平台。”

这意味着,当前对华高端芯片出口的限制,英伟达视为“节奏问题”,而不是长期放弃的市场。

ASIC vs GPU:为什么英伟达认为自己“不可替代”?

Wells Fargo 的 Aaron Rakers 问到定制 AI ASIC 的竞争,问黄仁勋是否改变了看法。

他的回答可以总结为“五个维度的护城河”:

  1. 覆盖所有转型阶段: 从通用加速计算,到生成式 AI,再到代理式 / 物理 AI,同一套架构都能胜任
  2. 覆盖 AI 的每个阶段: 预训练、后训练、推理这三步都极其复杂,尤其是链式思维等推理型推理,“事实证明推理是最难的”,而英伟达在三阶段都有很强的系统方案。
  3. 覆盖所有主流模型: 自回归、扩散、专家混合(MoE)、各种生物/物理模型—— “我们是唯一一个能把所有这些模型跑在一个平台上的架构。”
  4. 覆盖所有云和边缘形态: 从公有云、私有云,到本地 DGX Spark 再到机器人和 PC,一套 CUDA 生态贯穿始终,这大幅降低了开发者的心智成本。
  5. 带来真正的需求与多样性: 对云厂商、新创云(CoreWeave、Lambda 等)乃至新公司(Humane)来说,把 GPU 算力“挂上架”后,背后是庞大的模型生态和开发者需求,而不是一个“孤立的 ASIC”。

他最后的总结是:

“这不是简单往数据中心里塞一个随机 ASIC 的问题。需求从哪来?多样性从哪来?韧性从哪来? 英伟达的生态系统,已经证明它能把这些全部带给客户。

这一次,泡沫没有破裂。音乐继续。