微软 CEO 纳德拉:130 亿押 OpenAI,换来什么?
来源:36kr 8 小时前

2025 年 10 月 29 日,旧金山 GitHub Universe 大会。

这是微软 CEO 萨提亚·纳德拉关于 OpenAI 合作最完整的一次公开阐述。

130 亿美元。这是微软自 2019 年起对 OpenAI 的累计投资,从最初的 10 亿一路追加到如今的 130 亿,成为全球最大规模的 AI 战略合作之一。

比尔·盖茨当年甚至警告他:“这 10 亿美元要打水漂的。”

但今天,GitHub Copilot 每天服务数百万开发者;M365 Copilot 成为 Office 的智能入口;Azure 成为全球 AI 模型部署的首选平台。

从账面上看,这笔投资得到了验证。

但当主持人问起这场合作的深层逻辑时,纳德拉给出的答案,远比外界想象的更复杂。

他没有谈 OpenAI 的模型有多强,也没有谈 AGI 何时到来。他谈的是一个更根本的问题:AI 现在最大的问题,不是模型是否足够强大,而是这种“锯齿状”的智能不够稳定。

第一节|不是为了 AGI,而是解决“锯齿智能”

“锯齿状的智能”,是纳德拉对当下 AI 状态的精准描述。

具体来说:某些能力增长很快,比如代码生成、对话生成;但一旦超出模型熟悉的边界,质量就突然掉下来,甚至完全失效。他用参差不齐的智能(spiky intelligence)来形容这种现象。

这不是聪不聪明的问题,而是靠不靠谱的问题

在纳德拉看来,微软要解决的,恰恰是这个“不靠谱”:不是追求最强模型,而是构建一个足够稳、能长期用的系统:我们需要一个像编译器一样可靠的智能系统,而不是一个氛围感十足但不可控的助手。

他还引用了前特斯拉AI总监、OpenAI创始成员 Andrej Karpathy 的说法:即便某些能力上表现出指数级提升,但整体系统的可靠性,并没有同步提高。

这也是微软为什么不急于谈“AGI”的原因。

在纳德拉看来,AGI 的定义因人而异,已经变得模糊不清,也缺乏实际意义。微软更关注的是:AI 能否在真实场景中产生可靠结果。

这也是微软一系列动作背后的思路:从 GitHub Copilot 到 M365 Copilot,他们不是在打造一个“聪明的大脑”,而是要让 AI 像熟练工一样,融入每一个办公和开发流程,成为能被信任的可靠助手。

这不需要通用智能(General Intelligence),需要的是广泛智能(Broad Intelligence):能覆盖足够多的任务场景,并在每个场景中,稳定地产生有用输出。

正如纳德拉所说,在达到可信赖的标准之前,谈 AGI 为时过早。

第二节|130 亿不是投模型,而是买“系统判断”

130 亿美元的投入,看起来像是押注某个模型的胜负。但纳德拉明确表示,这不是一场技术押注,而是一次组织判断。

他回忆,微软与 OpenAI 最初的合作是在 2016 年。那时 OpenAI 还是一个非盈利实验室,还在研究游戏里的智能体。真正让两家公司重新走近,是 2019 年。

Sam Altman 回来找他说:我们真的相信扩展规律是管用的。

纳德拉读了 Dario、Ilya 他们写的那篇关于扩展定律的论文后判断:这可能就是打开下一代智能的大门。

所谓“扩展规律”,是指:模型参数越多、数据越大、训练越充分,AI 的表现就会大幅提升。

但纳德拉看的不是技术本身,而是背后的逻辑:微软从 1995 年就开始研究自然语言。我们做 Office 的,是做知识工作工具的。所以当 OpenAI 说:“我们要认真做这件事”,我们当时就判断:这不只是模型突破,更可能是系统机会。

微软当时开出第一笔 10 亿美元投资,很多人觉得大胆,甚至不理性。连比尔·盖茨都说:“你这10亿美元会打水漂的。”

但纳德拉的判断标准很清楚:这不是一场关于强不强的评估,而是关于“值不值得做”的决策。

他说:

我们当时投这 10 亿的时候,没人会说这会成一个独角兽。

我们只是觉得这事值得做。

这背后,其实是微软长期以来的思维习惯:不追风口,而是判断一个方向是不是足够基础、足够深入; 不投短期结果,而是看能不能形成可复制的方法论。

比如他提到,真正让他意识到系统性突破的,是 GitHub Copilot:我第一次看到 Copilot 运行时,就觉得:天哪,这真的管用了。

从那一刻开始,微软不仅继续追加资金,还围绕这个方向重组了自己的 AI 战略,从产品团队、开发工具链到基础设施设计,都不是为某个模型服务,而是要搭建一个能持续运转的智能引擎。

所以今天微软再谈 OpenAI 合作,已经不是在说模型能力有多强。

模型只是原材料,真正重要的是能不能把这些原材料接入工作流程、变成可靠产出。

微软投的,是那个能构建、部署、集成模型的组织能力。

第三节|从 Copilot 到 Agent,“总部系统”才是主角

在 GitHub Universe 2025 上,纳德拉描述了 Copilot 的新形态:它已经不是一个模型,而是一个由多个模型、多个智能体组成的协作团队,在不同分支上并行工作,再统一交付。

过去我们理解的 AI 助手,是 ChatGPT 一类的对话机器人,或者帮你补代码的小工具。但在微软内部,这种认知已经彻底改变。

纳德拉用了一个新词:“Agent HQ”(智能体总部)。

他解释道,这个架构,有点像一个项目团队:

每个 Agent 负责一个子任务,比如写代码、查资料、格式化文档;

不同模型可以被派去不同的任务,比如 Claude 写总结、GPT 做翻译、Grok 查系统信息;

最后,所有内容自动汇总成一个输出结果,由人类开发者(或者是你)来审核确认。

微软把这整套流程称为“任务控制系统”(Mission Control)。它不是一个插件系统,而是一个真正可以被调度、协作、管理的 AI 工作组。

简单说,微软正在构建的是一种把多个模型组织起来工作的方式,而不是单纯提升某一个模型的性能。

GitHub Copilot 是第一个验证这个架构的产品。开发者已经可以在 VS Code 中调用多个智能体,分别在不同分支工作。每个代理都有上下文、有职责分工,还可以回看过程,就像在管理一个 AI 团队。

这套架构可以适配不同的模型。

纳德拉说: “Codex、Claude、Grok,你喜欢哪个模型,就让它在你的工作流程中执行一段任务。”

过去我们说 AI 辅助人类,现在在微软的设想中,是 人类调度 AI 团队,就像管理一个远程项目组。

这套 Agent HQ 架构背后,是微软产品组织方式的重大转向: 不是做一个越来越聪明的 AI, 而是做一个能整合多个智能、让它们协同工作的平台。

第四节|微软如何搭建自己的“AI 工厂”?

有了 Agent HQ 这样的协作系统,谁来支撑这些代理的运行?

纳德拉给出了一个公式:

智能,就是每美元、每瓦特能产出多少 token。

AI 的竞争,不只是模型能力,更是生产效率。

他甚至说:我现在对数据中心冷却系统的了解,远超十年前的预期。冷却、电力、网络等基础设施,才是 AI 时代的核心竞争力。这就是“token factory”( AI 工厂)。

✅ 微软怎么搭建“Token Factory”

微软在 AI 基础设施上的投入是实打实的。根据微软官方报告,2025 财年,微软计划投入约 800 亿美元用于 AI 相关基础设施建设,其中超过一半将投资在美国:

  1. 数据中心:大规模扩建,全球同步推进
  2. 光纤网络:仅北美就扩大 40%,新增容量相当于全球网络的五分之一
  3. 服务器集群: 在北美、欧洲、亚洲同步部署新一代设备
  4. AI 芯片: 接入 NVIDIA、AMD、Broadcom 最新芯片,支持多模型运行

你想用 GPT、Claude,还是 Gemini?纳德拉表示都没问题,关键是基础设施能够支撑。微软要构建的,是一个最灵活、可互换的系统。

✅ 模型不是主角,调度能力才是核心

这也是为什么微软内部也在研发自己的模型。Mustafa Suleyman 领导的 Microsoft AI 团队已经推出了三个自研模型:

  • MAI-Voice-1:语音生成模型,单 GPU 一秒内可生成一分钟音频
  • MAI-1-preview:文本基础模型,用约 15,000 块 NVIDIA H100 GPU 训练
  • MAI-Image-1:图像生成模型,在 LMArena 排名前十

这不是为了自研更强的模型,而是为了确保平台本身不依赖某一家。

纳德拉说得很直接:我很满意 OpenAI 做的事。但我也欢迎 Anthropic、Mistral,甚至 Gemini 放到 Azure 上运行。

这不是谁赢谁输的比赛,而是微软希望所有模型产品都能在它的“工厂”里上线。

✅为什么工厂比模型更关键

纳德拉真正看重的,不是谁的模型更聪明,而是谁能更快、更便宜地生产出可信的结果。

这就像传统制造业,不是光有好设计图,而是要有能力建出高效产线。微软的目标是:让每一个计算、每一瓦电,都产出更多有价值的 token。

换换句话说,微软要建的不是“最聪明的大脑”,而是一座能让所有大脑高效运转的工厂。

你不能只想要结果,还得有能力产出这个结果。

这,就是微软眼中真正的竞争力。

结语|押注成功只是起点,系统才是终局

OpenAI,也许是过去十年科技圈最有争议的合作对象之一。

但在纳德拉眼中,它只是起点,不是终点。

130 亿美元不是豪赌,而是一次战略判断:微软要的不是一家模型公司的成功,而是一整套能持续产出的智能系统。

从解决“锯齿智能”,到构建多智能体协作的 Agent 总部;从 GitHub Copilot,到 800 亿美元投入数据中心和网络基础设施。微软要解决的核心问题是:如何把越来越多的模型,组织成真正可用的生产力。

这不是模型能力的问题,而是系统能力的问题。真正能落地的 AI,不是工具,不是插件,而是一套能长期运行、不断进化的系统。

模型是组件,微软构建的是平台。

这,就是 130 亿换来的东西:不是模型,是能力。

原文链接:

https://www.youtube.com/watch?v=0d8dA8GtE8U&t=3s

https://x.com/satyanadella/status/1974281794565615825?referrer=grok-com

https://www.cnbc.com/2025/10/29/microsoft-open-ai-investment-earnings.html

https://www.nytimes.com/2025/10/29/business/microsoft-quarterly-earnings.html

https://x.com/unwind_ai_/status/1973568633378115967?referrer=grok-com

来源:官方媒体/网络新闻

简体中文 English