Google与Thinking Machines Lab达成数十亿美元云计算深度合作

Source
据知情人士透露,Google近日与人工智能初创公司 Thinking Machines Lab 达成一项全新的多年期云计算和战略合作协议,交易规模高达数十亿美元,标志着这家搜索巨头正加大在前沿大模型客户上的投入力度。 此次协议是在 Thinking Machines Lab 先前与英伟达签署大规模算力采购合作之后达成,意味着该公司在底层芯片与云平台两端同时绑定行业领先供应商。

Thinking Machines Lab 由前 OpenAI 首席技术官 Mira Murati 于 2025 年创立,总部位于旧金山,成立当年便完成 20 亿美元种子轮融资,估值约 120 亿美元,投资方包括 Andreessen Horowitz、Accel、英伟达、AMD 等机构和产业方,被视为最具话题性的前沿 AI 实验室之一。 公司定位为“面向人类协作的通用 AI 系统”研发机构,强调可解释性、可定制性和跨学科能力,目标是缩小前沿 AI 能力与科学界理解之间的差距。

今年 3 月,Thinking Machines Lab 刚刚宣布与英伟达达成一项为期多年的算力合作,将自 2027 年起在其训练和推理基础设施中部署至少 1 吉瓦规模的 NVIDIA Vera Rubin 系统,英伟达同时对该公司进行战略投资。 业内人士根据黄仁勋此前对 1 吉瓦 AI 数据中心成本“最高可达 500 亿美元”的估算推断,这一合作在合同周期内的整体价值极有可能达到“数十亿美元”乃至更高水平。

在此背景下,最新与Google达成的合作被视为对其算力版图的关键补充:英伟达提供芯片与专用系统,而Google则通过其云平台为 Thinking Machines Lab 提供大规模 GPU/TPU 集群、网络、存储及工程支持,用于训练该实验室的新一代多模态大模型。 早在种子轮融资完成后,Thinking Machines Lab 就已与 Google Cloud 建立合作,本次协议被视为对既有关系的放大与锁定,使Google在这家“潜在下一家 OpenAI 或 Anthropic”的实验室中占据更稳固的基础设施和生态位。

据接近交易的人士介绍,协议除了云算力租用外,还包括一揽子联合技术优化和商业条款,例如围绕Google新一代 TPU 平台的训练与推理系统共建、针对大规模分布式训练的网络与数据管线调优,以及在安全性与合规方面的深度合作等。 Google看重的是,通过与早期的前沿实验室建立深度绑定关系,未来无论是模型托管、API 分发还是企业级解决方案,都有机会基于这些客户的成长获得可观回报。

对于 Thinking Machines Lab 而言,连续与英伟达和Google达成重量级合作,意味着其在算力资源上的长期可保障性大大增强,有助于其延续“构建可复现结果的前沿 AI 模型”的研发路线。 在 AI 行业对高端 GPU 和算力需求持续紧张的环境下,这种绑定有助于减少训练计划被资源供给掣肘的风险,也为其未来可能推出的商用 API 与科研工具奠定基础。

不过,这类体量巨大的算力与云服务合同也意味着双方需要在成本回收和商业化路径上给出有说服力的答案。 对Google而言,如何将这类高风险、高投入的前沿实验室客户转化为 Google Cloud 的长期增长引擎,将成为资本市场关注的焦点之一;而对仍处于早期阶段的 Thinking Machines Lab 来说,如何在持续高额算力支出的同时,稳定推出产品、形成收入,并兑现“更可理解、可定制的通用 AI 系统”愿景,同样面临考验。