近期,英伟达(NVDA.US)投资“出手”频繁,先是宣布50亿美元投资英特尔,随后斥资至多1000亿美元投资OpenAI,而受此前OpenAI与甲骨文的合作,市场均在股价层面给予了积极反馈。
但市场也出现了质疑声音——称英伟达、OpenAI与甲骨文存在“收入循环”,财务数字“操作”大于实际营收。
9月25日,在播客BG2最新一期节目中,BG2主播、Altimeter Capital创始人Brad Gerstner,Altimeter Capital合伙人Clark Tang与英伟达CEO黄仁勋展开了一次对话。黄仁勋在对话中回应了当下市场的关心的问题。
黄仁勋认为,投资OpenAI实际上是一个很好的机会,并认为OpenAI将是下一家数万亿美元级别的Hyperscaler。
此外,黄仁勋也特别解释了为什么ASIC芯片并不完全和英伟达GPU是竞争关系——因为英伟达是AI基础设施提供商,其提供的能力范围已经不仅仅是硬件和软件层面,也包括其不断迭代的速度、规模优势带来的可靠性,以及整体能源效率等综合因素。
因此,黄仁勋认为英伟达目前的护城河比三年前“更宽“,而Brad Gerstner甚至认为,英伟达将是史上第一家达到十万亿美元的公司。
以下为「明亮公司」编译的访谈正文(有删节):
Brad Gerstner:Jensen,再次欢迎你。你的红色眼镜很好看,真的很适合你。距离上次上播客,已过去一年多。你们如今超过40%的收入来自推理(inference),而且推理正因为chain of reasoning链式推理而要起飞了。
黄仁勋:大多数人还没真正内化这一点,这其实就是一场工业革命。
投资OpenAI不是合作的前提,是因为有机会能投
Brad Gerstner:说真的,从那次之后,感觉你我每天都像在验证那期播客。在AI的时间尺度上,这一年像过了一百年。我最近重看了那期,很多观点让我印象深刻。
最打动我的是你当时拍着桌子说——当时大家觉得预训练进入低潮(pre-training),很多人说预训练要完蛋了,硬件建设过度。那是大约一年半前。你说推理不会只是一百倍、一千倍。会是十亿倍。这把我们带到今天。你刚宣布了一项巨大合作,我们应该从这里聊起。
黄仁勋:我想正式说下,我认为我们现在有三条Scaling Law。第一是预训练的Scaling Law。第二是后训练(post-training)的Scaling Law。后训练基本上就是让AI练习一种技能,直到做对,它会尝试很多不同方法。要做到这一点,就必须进行推理(inference)。所以训练与推理如今以强化学习的方式整合在一起,非常复杂,这就是后训练。
第三是推理(inference)。过去的推理是“一次出手”,而我们现在理解的新推理,是“先思考再作答”。先想,再回答,想得越久,答案质量越高。思考过程中你会检索、查证事实、学到东西,再继续思考、继续学习,最后输出答案,而不是上来就生成。所以思考、后训练、预训练,如今我们有三条Scaling Law,而不是一条。
Brad Gerstner:这些你去年就提过,但你今年说推理会提升十亿倍,并由此带来更高水平智能”的信心更高吗?
黄仁勋:我今年更有把握。原因是看看如今的智能体系统。AI不再是单一语言模型,而是由多个语言模型组成的系统,它们并发运行。有的在用工具,有的在做检索,事情非常多,而且是多模态。看看生成的视频,简直令人难以置信。
Brad Gerstner:这也引到本周的关键时刻,大家都在谈你们与OpenAI的重磅合作Stargate。你们将成为首选合作伙伴,并在一段时间内向公司投资1000亿美元。他们会建10个“gig“(Gigawatt,吉瓦)。如果这10个“gig”都用英伟达,那对你们的收入贡献可能高达4000亿美元。帮我们理解一下这个合作,对你意味着什么?以及为何这项投资是合理的?
黄仁勋:我先回答后一个问题,再回到我的叙述。我认为OpenAI很可能成为下一家数万亿美元级的hyperscale公司。
就像Meta是hyperscale,Google也是,他们会同时拥有C端与企业服务。他们非常可能成为下一家多数万亿美元级的hyperscale公司。如果是这样,能在他们达到那个规模之前投资进去,是我们能想象到的最聪明的投资之一。你必须投资你熟悉的东西,恰好我们熟悉这个领域。所以这笔钱的回报会非常出色。
我们很乐意投资,但不是必须的,也不是合作的前提;是他们给了投资机会,这太好了。
我们与OpenAI在多个项目上合作。第一,Microsoft Azure的建设,我们会持续推进,这个合作进展非常顺利,未来还有数年的建设;第二,OCI(Oracle Cloud Infrastructure)的建设,我想大概有5-7个GW要建。我们与OCI、OpenAI、软银一道推进。这些项目都已签约,正在实施,工作量很大。第三是CoreWeave。所有与CoreWeave相关的……我还在讲OpenAI,对,一切都在OpenAI语境里。
所以问题是,这个新伙伴关系是什么?它是帮助OpenAI首次自建AI基础设施。也就是我们直接与OpenAI在芯片、软件、系统、AI工厂层面协作,帮助他们成为一家完全自运营的hyperscale公司。这会持续相当一段时间,是对他们现有建设的补充。
他们正经历两个指数曲线:第一个指数是客户数量在指数级增长,因为AI在变好、用例在变好,几乎每个应用现在都连到OpenAI,所以他们正经历使用指数;
第二个指数是计算量的指数增长。每个使用场景的算力在暴涨。过去是一键式推理,现在要先思考再回答。这两个指数叠加,大幅抬升了计算需求。我们会推进所有这些建设。因而这个新合作是对既有所有合作的“增量”,去支撑这股惊人的指数增长。
Brad Gerstner:你刚说到一个很有意思的点,你认为他们极大概率会成为数万亿美元公司,是很好的投资;同时你们还在帮助他们自建数据中心。过去他们把数据中心外包给微软,现在他们要自建“全栈工厂”,就像Elon和X那样,对吧?
Brad Gerstner:想想Colossus的优势,他们构建全栈,就是hyperscaler,即便自己用不完容量,也能卖给别人。同样的,Stargate在建设海量容量,他们觉得会用掉大部分,但也能售卖出去。这听起来很像AWS、GCP(谷歌云)或Azure,是这意思吗?
黄仁勋:我认为他们很可能自己用掉,就像X大多会自用。但他们希望与我们建立直接关系——直接工程协作和直接采购关系。就像Zuck、Meta与我们之间的直接关系。我们与Sundar和Google的直接关系,我们与Satya和Azure的直接伙伴关系。他们规模足够大了,认为该建立这些直接关系了。我很乐意支持,而且Satya(微软CEO)知道,Larry(谷歌联合创始人)知道,大家都知道。
华尔街与英伟达之间预期背离:如何理解AI的需求规模
Brad Gerstner:这儿有件事我觉得颇为神秘。你刚提到Oracle 3000亿、Colossus的建设,我们知道一些主权国家在建(AI基础设施),hyperscaler也在建。Sam正以万亿美元的口吻来谈这一切。可覆盖你们股票的华尔街25位卖方分析师的共识却显示,你们从2027年开始增长放缓,预2027-2030年年化增速8%。这些人的唯一工作就是给英伟达做增长预测。显然……
黄仁勋:我们对此很坦然。看,我们经常能轻松超预期。
英伟达数据中心营收的增长预期(来源:BG2)
Brad Gerstner:我明白。但这仍是个有趣的“背离”。我每天都在CNBC、彭博上听到。很多人担心短缺会转向过剩,他们不相信持续高增长。他们说,行,我们给姑且信你们的2026年,但2027年可能供给过剩、不再需要那么多。但共识预测其实显示这不会发生。我们也做了自己的预测,纳入了所有这些数字。
结果是,即便进入“AI时代”两年半,各方的信念仍然分歧巨大,Sam Altman、你、Sundar、Satya的看法,与华尔街仍然相信的相去甚远。对此,你依旧感到从容吗?
黄仁勋:我也不认为这不一致。首先,我们这些“建设者”应该为“机会”而建。我们是建设者。让我给你三个思考点,有助于你对英伟达的未来更放心。
第一点,是物理定律层面的、最关键的一点,通用计算已到尽头,未来属于加速计算与AI计算。这是第一点。
你可以这样想:全球有多少万亿美元的计算基础设施要被更新换代。所以首先你得认识到通用计算的终结。没人反对这一点。摩尔定律已死,人们常这么说。那么这意味着什么?通用计算会转向加速计算。我们与Intel的合作就是在承认通用计算需要与加速计算融合,为他们创造新机会。通用计算正迁移到加速计算与AI。
第二点,AI的首要用例其实已无处不在——在搜索、在推荐引擎等等。基础的hyperscale计算基础设施过去由CPU执行推荐,如今要由GPU执行AI。你把传统计算换成加速计算与AI;你把hyperscale计算从CPU换到加速计算与AI。这是第二点。仅仅满足Meta、Google、字节跳动、Amazon,把它们传统的hyperscale方式搬到AI,就是数千亿美元的市场。
所以,哪怕先不谈AI创造新机会,仅仅是AI改变了旧做法到新做法。然后再谈未来。是的,到目前为止我其实只谈了“平凡”的事。旧方式不对了。你不会再用煤油灯,而要用电。这就够了。
然后是更不可思议的,当你走向AI、走向加速计算,会出现什么新应用?就是我们在谈的所有AI相关,机会巨大。怎么理解?简单想想,过去电机替代了体力劳动;现在我们有AI——我称之为AI超级计算机、AI工厂——它们会生成tokens来增强人类智能。而人类智能占全球GDP的55%-65%……我们就算50万亿美元吧,这50万亿将被某种东西增强。
回到个人层面,假如我雇一位工资10万美元的员工,再给TA配一个1万美元的AI,如果这个AI让那位员工产能翻倍、三倍?我会不会做。一定会做。我现在就在给公司里每个人配,没错,每位协作智能体(co-agents)、每位软件工程师、每位芯片设计师都已有AI与其协作智能体,覆盖率100%。
结果是我们做的芯片更好,数量在增长,推进速度更快。公司因此增长更快、招聘更多、生产率更高、营收更高。利润更高。现在把英伟达的故事套到全球GDP上,很可能发生的是,这50万亿会被……我们取个数,10万亿美元所增强。而这10万亿需要跑在一台机器上。
AI与过去IT的不同在于,过去软件是事先写好,跑在CPU上,不怎么自己“动”。未来,AI要生成tokens,而机器要生成这些tokens、它“在思考”,所以软件一直在运行;过去是一次性编写,现在是持续编写、持续思考。要让AI思考,就需要工厂。假设这10万亿token的毛利率是50%,其中5万亿需要工厂、需要AI基础设施。
所以如果你告诉我全球每年的资本开支大概是5万亿美元,我会说这个数看起来说得通。这大概就是未来的轮廓——从通用计算到加速计算;把所有hyperscale都换成AI;然后用AI去增强人类智能,覆盖全球经济。
Clark Tang:以今天而言,我们估算年市场规模大约4000亿美元,所以TAM从现在到目标是四到五倍的提升。
黄仁勋:没错。昨晚(北京时间9月24日)阿里巴巴的吴泳铭(Eddie Wu)说,从现在到20年代末,他们要把数据中心电力(消耗)提升十倍。对吧?你刚才说四倍?这就对上了。他们要把电力提升十倍,而我们的收入与电力几乎是正相关。(注:吴泳铭表示,对比2022年GenAI元年,到2032年阿里云全球数据中心能耗规模将提升10倍)他还说token生成量每几个月就翻倍。
这意味着什么?单位能耗性能(perf per watt)必须指数级提升。这就是为什么英伟达要疯狂推进单位能耗性能提升,而单位能耗收入(revenue per watt)基本就是收入。
Brad Gerstner:在这个未来里,有个假设从历史角度看我觉得很迷人。两千年里,全球GDP基本不增长。然后工业革命来了,GDP加速;接着数字革命,GDP又加速。你现在的意思和Scott Bessent(美国现任财长)说的一样——他认为明年全球GDP增长会到4%。你其实是在说全球GDP增速将加快,因为我们正在给世界提供“数十亿同事”来为我们工作。而如果GDP是在既定劳动与资本下的产出,那么它必须……
黄仁勋:一定会增长。看看AI正在发生的事,AI的技术形态、可用性,诸如大语言模型与AI智能体,都在推动一个新的“智能体行业”。这点毫无疑问。OpenAI就是历史上收入增长最快的公司,他们在指数级增长。所以AI本身是个高速增长的行业,因为AI需要背后的工厂与基础设施,这个行业在增长,我的行业也在增长;而因为我的行业在增长,在我们之下的行业也在增长——能源在增长、电力与厂房在增长。这简直是能源产业的复兴。核能、燃气轮机……看看我们生态之下的那些基础设施公司,他们做得很棒,大家都在增长。
Brad Gerstne:这些数字让大家都在谈是否会“供给过剩”或“泡沫”。Zuckerberg上周在一个播客说了,可能会有短期的“气阱”(Airpocket),Meta可能会多花个100亿美元之类的。但他说,这不重要。对他业务的未来而言太关键了,这是必须承担的风险。但从博弈角度看,这有点像“囚徒困境”。
黄仁勋:开心的囚徒。
Brad Gerstner:再捋一遍。今天我们估算到2026年,会有1000亿美元的AI收入,不含Meta,也不含跑推荐引擎的GPU还有搜索等其他工作负载,我们就先算1000亿。
黄仁勋:但hyperscale行业本身到底有多大?这个行业现在的基数是多少?
Brad Gerstner:以万亿美元计。
黄仁勋:对。这个行业会先部署AI,不是从零起步,你得从这里开始。
Brad Gerstner:不过怀疑者会说,我们必须从2026年的1000亿,长到2030年至少1万亿的AI收入。你刚才还谈到5万亿。从全球GDP的自下而上推演看,你能看到从1000亿到1万亿在未来五年实现吗?
黄仁勋:能,而且我会说我们其实已经到了。因为Hyperscalers已经把CPU迁到AI,他们的整个收入基座如今都由AI驱动。
Brad Gerstner:是的。
黄仁勋:没有AI就没有TikTok,对吧?没有AI就没有YouTube Shorts。Meta做的为你定制、个性化的内容,没有AI就做不到。以前那些事情,靠人类事先创作、提供几个选项,再由推荐引擎挑选。现在是AI生成无限多的选项。
Brad Gerstner:这些转变已经发生:我们从CPU迁到GPU,主要是为了那些推荐引擎。
黄仁勋:对。Zuck会告诉你,我在SIGGRAPH时他也说过,他们其实到得有点晚。Meta用GPU也就一年半、两年的事。搜索上用GPU更是崭新的、刚刚开始的。
Brad Gerstner:所以论证是,到2030年我们有1万亿AI收入的概率几乎确定,因为我们几乎已经达到了。
接着我们只谈“增量”。不管你做自下而上还是自上而下,我刚听了你按全球GDP占比的自上而下的分析。那你觉得,未来三到五年内,出现“供给过剩(glut)”的概率有多大?
黄仁勋:在我们把所有通用计算彻底转换为加速计算与AI之前,我认为出现过剩的概率极低。
Brad Gerstner:会花几年?
黄仁勋:直到所有推荐引擎都基于AI,直到所有内容生成都基于AI。因为面向消费者的内容生成很大程度就是推荐系统之上的,所以所有这些都会转向AI生成。直到传统意义上的hyperscale全部迁到AI,从购物到电商等一切都迁过去。
Brad Gerstner:但所有这些新建项目,我们谈的是“万亿级”,总是提前投资。那如果你们看到了放缓或过剩,是不是还“不得不”把钱投进去?还是说,一旦看到放缓迹象,再随时收缩?
黄仁勋:实际上正相反,因为我们在供给链的末端,我们按需响应。现在,所有VC都会告诉你——你们也知道——全球短缺的是“计算”,不是GPU的数量短缺。只要给我订单,我就造。过去两年我们把整个供应链都打通了,从晶圆启动、到封装、到HBM内存等等,我们都加足了马力。需要翻倍,我们就翻倍,供应链已备好。我们现在等的是需求信号。当云服务商、hyperscaler和客户做年度计划给我们预测时,我们就响应,并按那个预测去建。
问题是,他们每次给我们的预测都会错,因为预测都偏低。于是我们总处于“紧急追赶”模式,已经持续了好几年,每一轮预测都比上一年显著上调。
Brad Gerstner:但还不够。比如去年,Satya看起来稍微收敛了一点,有人说他像房间里那个“更稳重的成年人”,压一压预期。但几周前他又说,我们今年也建了两个“gig”,未来还会加速。你是否看到那些传统hyperscalers——相较于Core Weave或Elon的X,或者相较于StarGate——此前略慢一些的,现在都在加倍投入,而且……
黄仁勋:因为第二条指数来了。我们已经有一条指数在增长,AI的应用和渗透率指数级增长。第二条指数是“推理与思考”,这就是我们一年前讨论的。我当时说,一旦你把AI从“一次性出手、记忆并泛化”推进到“推理、检索与用工具”,AI就在思考,它会用更多算力。
Clark Tang:回到你刚才的点,hyperscale客户无论如何都需要把内部工作负载从通用计算迁到加速计算,他们会穿越周期持续建设。我想部分hyperscalers的负载结构不同,不确定消化速度,现在大家都认定自己严重低配了。
黄仁勋:我最喜欢的应用之一就是传统的数据处理,即结构化与非结构化数据处理。很快我们会宣布一个关于“加速数据处理”的重大计划。
数据处理占据了当今世界绝大多数CPU,它仍然完全跑在CPU上。去Databricks,大多是CPU;去Snowflake,大多是CPU;Oracle的SQL处理,大多是CPU。
大家都在用CPU做SQL/结构化数据。未来,这一切都会迁到AI数据。这是一个极其庞大的市场,我们会推进过去。但你需要英伟达的全部能力——加速层与领域专用的“配方”。数据处理层的“配方”需要我们去构建,但它要来了。
「循环营收」质疑:投资机会不绑定任何条件
Brad Gerstner:还有一个质疑点。昨天我打开CNBC,他们说的是“过剩、泡沫”。换到彭博,是“循环交易与循环营收(round-tripping、circular revenues)”。给在家观看的观众解释下,这指公司之间缔结看似交易、实则缺乏真实经济实质的安排,人为抬高营收。
换言之,增长不是来自真实的客户需求,而是财务数字上。所以当你们、微软或亚马逊投资那些同时也是你们大客户的公司时,比如你们投资OpenAI,而OpenAI又购买数百亿美元的芯片。
请提醒我们、也提醒大家:当彭博等媒体分析师拿“循环营收”大做文章时,他们到底误解了什么?
黄仁勋:建10GW的(数据中心)规模大概就是4000亿美元左右吧。那4000亿要主要由他们的offtake(消纳能力/下游需求)来支撑,它在指数增长。
(支出)这得由他们自有资本、股权融资和可获得的债务来支持,这是三种工具。能融到多少股权与债务,取决于他们对未来收入的把握程度。精明的投资人与授信人会综合权衡这些因素。这是他们公司的事,不是我的。
我们当然要和他们紧密合作,以确保我们的建设能支持他们持续增长,但收入端与投资端无关。投资机会不是绑定任何条件的,是一个纯投资机会。正如前面说的,这家公司很可能成为下一家多万亿美元级的hyperscale公司。谁不想持有它的股权?我唯一的遗憾是,他们早年就邀请我们投资,当时我们太“穷”了,投得不够,真该把所有钱都投进去。
Brad Gerstner:而现实是,如果你们不把本职工作做到位,比如Vera Rubin最终不成好芯片,他们也可以去买别家的。对吧?他们没有义务必须用你们的芯片。正如你说的,你们看待这件事是机会性的股权投资。
黄仁勋:我们投了xAI、投了CoreWeave,这都是很棒的投资。
Brad Gerstne:回到“循环营收”的讨论,还有一个根本点是,你们把一切都摆在台面上,告诉大家你们在做什么。而其背后的经济实质是什么?并不是双方互相倒腾营收。我们看到有用户每月为ChatGPT付费,有15亿月活在用这个产品。你刚说世界上每家企业要么拥抱这一切,要么被淘汰。每个主权国家都把这视为其国防与经济安全的“生死攸关”,就像核能一样。
黄仁勋:问问看,有哪一个人、公司、国家会说“智能”对我们是可选项?没有。这就是基础。关键在于“智能的自动化”。
摩尔定律已死,现在需要极致的软硬件协同设计
Brad Gerstner:需求问题我问得够多了,我们聊系统设计。我接下来会把话题递给Clark。2024年你们切换到了年度发布节奏,对吧?
Hopper之后,2025年的Grace Blackwell是一次巨大升级,需要数据中心进行重大改造。26年下半年会有Vera Rubin,27年有Rubin Ultra,28年有Feynman。年度发布节奏进行得如何?为什么要改为年度发布?英伟达内部的AI是否让你们能落实年度发布?
黄仁勋:是的,答案是肯定的。没有它,英伟达的速度、节奏和规模都会受限。现在没有AI,根本不可能建出我们如今的产品。为什么这么做?记得Eddie(吴泳铭)在财报或大会上说过、Satya说过、Sam也说过……token生成速率在指数级上升,用户使用在指数级上升。我记得OpenAI说周活跃用户有8亿左右,对吧?从ChatGPT推出才两年。
Brad Gerstner:而且这些用户的每次使用都在生成更多token,因为他们在使用“推理时思考”(inference-time reasoning)。
黄仁勋:没错。所以第一点是:在两个指数叠加的情况下,除非我们以不可思议的速度提升性能,否则token生成成本会持续上升。
因为摩尔定律已死,晶体管的单位成本每年几乎不变,电力也大致不变。在这两条“定律”约束下,除非我们发明新技术降成本,否则即便给对方打个几个百分点的折扣,也无法抵消两个指数增长的压力。因此我们必须每年以跟上这个指数的节奏去提升性能。
比如从Kepler(注:2012年4月发布)一路到Hopper(注:2022年3月发布),大概实现了100000的提升。那是英伟达 AI旅程的开端,十年十万倍。Hopper到Blackwell,因为NVLink等,我们在一年内实现了30×的系统级提升;接下来Rubin还会再来一波“x”(数倍),Feynman再一波“×”……
之所以能做到,是因为晶体管本身帮不上太多忙了。摩尔定律基本只剩密度在涨,性能没有相应提升。所以我们必须把问题在系统层面完全拆开,所有芯片同步升级,软件栈与系统同步升级,这是极致的“协同设计(co-design)”。
以前没人做到这个层级。我们同时改变CPU、重塑CPU,与GPU、网络芯片、NVLink纵向扩展、Spectrum-X横向扩展。当然还要去构建更大的系统,在多个AI工厂之间做跨域互联。并且以年度节奏推进。所以我们自身也在技术上形成了“指数叠指数”。这让客户能持续拉低token成本,同时通过预训练、后训练与“思考”让token更聪明。AI变聪明,使用就更多,使用更多就指数增长。
Brad Gerstner:极致的协同设计是什么?
黄仁勋:极致协同设计,意味着你要同时优化模型、算法、系统与芯片。
当摩尔定律还能推动时,只要让CPU更快,一切都会更快。那是在“盒子里”创新,只需把那颗芯片做快。但如果芯片不再变快,你怎么办?就要跳出原有框架来创新。
英伟达改变了行业,因为我们做了两件事——发明了CUDA、发明了GPU,并把大规模协同设计的理念落地。
这就是为什么我们覆盖这么多行业。我们在构建大量库与协同设计。第一,全栈的极致不仅在软件与GPU,还延伸到数据中心层面的交换与网络,以及它们内部的所有软件:交换机、网络接口、纵向扩展与横向扩展,跨全部层面优化。其结果就是Blackwell对Hopper的30×提升。摩尔定律根本做不到,这是极致协同设计的成果。
英伟达全部技术栈(来源:BG2)
Brad Gerstner:这些都源自极致协同设计。
黄仁勋:是的,这就是为什么我们要做网络、做交换、做纵向/横向/跨域扩展,做CPU、做GPU、做NIC。也是为什么英伟达的软件如此丰富。我们在开源软件上的贡献提交量,全球能比的没几家。而且这还只是AI领域。别忘了我们在计算机图形、数字生物学、自动驾驶等。我们产出的软件规模极其可观,这让我们能做深度且极致的协同设计。
Brad Gerstner:我从你一位竞争对手那里听说,你们这么做能降低token生成成本。但与此同时,你们的年度发布节奏让竞争者几乎很难跟上。因为你们给供应链三年的可见性,供应链锁定更深,心里有底该供到什么规模。
黄仁勋:你不妨这样想:要让我们一年做几千亿美元级的AI基础设施建设想想我们在一年前就必须提前预备多少产能。我们说的是数千亿美元级的晶圆启动量、DRAM采购量。这个规模,几乎没有公司能承接。
英伟达的护城河为什么更宽了:如何看ASIC的竞争力
Brad Gerstner:你们今天的护城河比三年前更宽了吗?
黄仁勋:是的。
首先,竞争者比以往更多,但难度也比以往更大。因为晶圆成本在上升。除非你在极致规模上做协同设计,否则你交不出那个“数倍”级的增长,这是第一点。所以,除非你一年同时做6-8颗芯片,否则不行。重点不是做一颗ASIC,而是构建一座AI工厂系统。这座系统里有很多芯片,它们都协同设计。它们共同交付我们几乎固定节奏能拿到的那个“10×”。
所以第一,协同设计必须极致。第二,规模必须极致。当你的客户部署1个GW,那就是四五十万颗GPU,要让50万颗GPU协同工作,这就是个奇迹。
所以客户是在承担巨大的风险来购买这些。你得想,有哪个客户会在一个架构上下500亿美元的采购订单?一个全新的、未经大规模验证的架构?
你再兴奋、大家再为你喝彩,当你刚刚展示第一个硅片的时候,会有谁给你500亿美元的订单?你又为何敢在一颗刚刚流片的芯片上启动500亿美元的晶圆?但对英伟达来说,我们敢,因为我们的架构高度成熟与积累的信用。其二,我们客户的规模极其惊人。再者,我们供应链的规模也极其惊人。谁会替一家企业去提前启动这些、预构建这么多,除非他们确信英伟达能把它交付到底?对吧?他们相信我们能交付到全球所有客户手里,愿意一次性启动数千亿美元的供应。
这就是“规模”的故事。
Clark Tang:顺着这个点,全球一个最大的争论是“GPU vs ASIC”,比如Google的TPU、Amazon的Trainium。Arm到OpenAI、Anthropic在传出自研……你去年说过我们构建的是“系统”,不是“芯片”,而你们在堆栈的每一层都驱动性能提升。你还说过这些项目里很多可能永远到不了生产规模,事实上…大多数都到不了。在TPU看似成功的前提下,你今天如何看这片正在演进的版图?
黄仁勋:Google的优势在“前瞻”。
记得他们在一切开始之前就做了TPU v1。这跟创业没区别。你应当在市场尚未做大之前去创业,而不是等市场涨到万亿级再来。所有VC都懂一个谬误:市场很大,只要拿到几个百分点就能做成大公司。这是错的。你该在一个很小的领域拿到“几乎全部份额”,这就是英伟达当年做的,也是TPU当年做的。
所以今天那些做ASIC的人的挑战在于:市场看起来很“肥”,但别忘了,这个“肥市场”已经从一颗叫GPU的芯片,演化为我刚描述的“AI工厂”。
你们刚看到我宣布了CPX(注:Rubin CPX GPU,英伟达专为长语境推理设计的芯片),这是一颗用于“上下文处理与扩散式视频生成”的芯片,是很专门但很重要的数据中心负载。我刚才也暗示,也许会有“AI数据处理”处理器。因为你需要“长期记忆”和“短期记忆”。KVCache的处理非常重,AI记忆是大事。你希望你的AI有好记忆。围绕整个系统处理KVCache非常复杂,也许它也需要一颗专属处理器。
你可以看到,英伟达今天的视角,是俯瞰全体AI基础设施——这些了不起的公司要如何让多元且变动的工作负载流经系统?看看Transformers,这个架构在快速演化。若非CUDA如此好用、易于迭代,他们要如何进行如此海量的实验,来决定采用哪种Transformer变体、哪类注意力算法?如何去做“解耦/重构(disaggregate)”?CUDA之所以能帮你做这一切,是因为它“高度可编程”。
所以看我们的业务,你得回到三五年前那些ASIC项目启动之时,那会儿的行业“可爱而简单”,只有GPU。一两年后,它已巨大且复杂;再过两年,它的规模会非常之大。所以,作为后来者要杀入一个巨量市场,这仗很难打。
Clark Tang:即便那些客户在ASIC上成功了,他们的算力机队里也应该有个“优化配比”,对吧?我觉得投资人喜欢非黑即白,但其实即便ASIC成功了,也要有个平衡。会有很多不同的芯片或部件加入英伟达的加速计算生态,以适配新生的负载。
Brad Gerstner:换句话说,Google也是你们的大客户。
黄仁勋:Google是我们的大GPU客户。Google很特殊,我们必须给予尊重。TPU已经迭代到v7了,对吧?这对他们也是极大挑战。他们做的事情极难。
所以我想先理顺一下芯片的分类。一类是“架构型”芯片:x86CPU、ArmCPU、英伟达GPU,属于架构级,有丰富的IP与生态,技术很复杂,由架构的拥有者构建。
另一个是ASIC,我曾就职于发明ASIC概念的公司LSI Logic。你也知道,LSI早已不在。原因在于,当市场规模不太大时,ASIC很棒,找一家代工/设计服务公司帮你封装整合并代工生产,他们会收你50-60个点的毛利。
但当ASIC面向的市场变大后,会出现一种新方式叫COT(Customer-Owned Tooling,客户自有工具),谁会这么做?比如Apple的手机芯片,量级太大,他们绝不会去付给别人50-60%的毛利做ASIC,他们会自己掌握工具。
所以,当TPU变为一门大生意时,它也会走向COT,这毫无疑问。话说回来,ASIC有它的位置——视频转码器的市场永远不会太大;智能网卡(Smart NIC)的市场也不会太大。
所以当你看到一家ASIC公司有十来个甚至十五个ASIC项目时,我并不惊讶,因为可能其中五个是Smart NIC、四个是转码器。它们都是AI芯片吗?当然不是。如果有人做一颗为某个特定推荐系统定制的处理器,做成ASIC,当然也可以。但你会用ASIC来做那颗“基础计算引擎”吗?要知道AI的工作负载变化极快。有低延迟负载,有高吞吐负载;有聊天token生成,有“思考”负载,有AI视频生成负载,现在你在谈的是……
Clark Tang:算力机群的 “主力骨干”。
黄仁勋:这才是英伟达的定位。
Brad Gerstner:再通俗点讲,就像“象棋vs跳棋”。那些今天做ASIC的人,不管是Trainium还是别的某些加速器,本质是在造一颗“更大机器中的一个部件”。
而你们造的是一个“非常复杂的系统、平台、工厂”,现在你们又开始做一定程度上的“开放”。你提到了CPX GPU,在某种意义上,你们在把工作负载“拆分”到最适合它的硬件切片上。
黄仁勋:没错。我们发布了一个叫“Dynamo”的东西——解耦后AI负载编排(disaggregated orchestration),而且开源了它,因为未来的AI工厂就是解耦的。
Brad Gerstner:你们还发布了NVLink Fusion,甚至对竞争对手开放,包括你们刚刚投资的Intel,这就是让他们也能接入你们正在建的工厂——没人疯狂到要独自建完整工厂。但如果他们有足够好的产品、足够有吸引力,终端客户说我们想用这个替代某个Arm GPU,或者替代你们的某个推理加速器等,他们就可以插进来。
黄仁勋:我们非常乐意把这些接上。NV Fusion是个很棒的主意,我们也很高兴与Intel合作——它把Intel的生态带进来,全球大多数企业工作负载仍跑在Intel上。它融合了Intel生态与英伟达的AI生态与加速计算。我们也会与Arm做同样的融合。之后还会与更多人做。这为双方都打开了机会,是双赢、非常大的双赢。我会成为他们的大客户,他们也会把我们带到更大的市场机会前。
Brad Gerstner:与此紧密相关的,是你提出一个让人震惊的观点:就算竞争者造的ASIC芯片今天已经更便宜,甚至就算他们把价格降到零,也依然会买英伟达的系统。因为一个系统的总运营成本——电力、数据中心、土地等——以及“智能产出”,选择你们仍然更划算,即使对方的芯片白送。
黄仁勋:因为单是土地、电力、厂房等设施就要150亿美元。
Brad Gerstner:我们试着做过这背后的数学题。对很多不熟悉的人来说,这听起来不合逻辑,你把竞品芯片定价为零,考虑到你们芯片并不便宜,怎么可能还是更划算?
黄仁勋:有两种看法。一是从营收角度。大家都受“电力”约束。假设你拿到了新增2GW的电力,那你希望2GW能被转化为营收。如果你的“token单位能耗(token per watt)”是别人的两倍,因为你做了深度且极致的协同设计,你的单位能耗性能更好,那你的客户就能从他们的数据中心产出两倍营收。谁不想要两倍营收?而就算有人给他们15%的折扣——比如我们75%的毛利,别人50%-65%的毛利——这点差距也绝不可能弥补Blackwell与Hopper之间30×的差距。
过去10年大模型单位能效提升了10万倍(来源:BG2)
就算我们把Hopper和别人的ASIC看作同级,Blackwell也有30×的空间。所以在同一个GW上,你要放弃30×的营收。这代价太大了。就算对方白送芯片,你也只有2GW的电力可用,你的机会成本高得离谱——你永远会选择“单位能耗”最强的那套系统。
Brad Gerstner:我从一家hyperscaler的CFO那里听说过,鉴于你们芯片带来的性能提升,特别是以单位能耗(token/gigawatt)和“电力供给”为硬约束,他们不得不升级到新的周期。展望Rubin、Rubin Ultra、Feynman,这条曲线会延续吗?
黄仁勋:我们现在一年做六七颗芯片,每一颗都是系统的一部分。系统软件无处不在。要实现Blackwell的30×,需要跨这六七颗芯片的联调与优化。想象一下,我每年都这么做,砰、砰、砰地连发。如果你在这锅“芯片大杂烩”里只做一颗ASIC,而我们却在整锅里到处优化,这就是个很难的问题。
Brad Gerstner:这让我回到开头的护城河问题。我们做投资许久了,在整个生态投资,也投了你的竞争对手,比如Google、博通。
但当我从第一性原理出发,你们改为以年为单位的发布节奏、跟供应链共研、规模远超所有人预期,这对资产负债表与研发有双重规模要求,你们通过收购与自研推进了NVFusion、CPX等。因此,你们的护城河在拓宽,至少在“构建工厂或打造系统”这件事上是如此。
但有趣的是,你们的估值倍数比那些人都低。我认为部分源自“大数定律”——一家4.5万亿美元的公司不可能再变更大了。但一年半前我也问过你,如果市场会把AI负载提升10×或5×,我们也知道Capex的走势。在你看来,结合刚才谈到的优势下,营收“不大幅更高”的概率有多大?
黄仁勋:我这样回答,我们的机会远大于市场共识。
Brad Gerstner:我认为英伟达很可能成为第一家10万亿美元的公司。我在这行待得够久了。十年前,大家还说世上不可能有1万亿美元公司。现在我们有十家。今天的世界更大了,对吧?
黄仁勋:世界变大了。而且人们误解我们在做什么。大家记得我们是“芯片公司”——没错,我们造芯片,造的是全球最惊人的芯片。但英伟达实际上是一家AI基础设施公司。
我们是你的“AI基础设施合作伙伴”。我们与OpenAI的伙伴关系就是最好证明。我们是他们的AI基础设施伙伴。我们以很多方式与客户合作。我们不要求任何人买我们的一切。我们不要求你买整机柜,你可以买一颗芯片、一个部件、我们的网络,或仅仅买我们的CPU。也有人只买我们的GPU,配别家的CPU和网络。我们基本上是按你喜欢的方式卖。我的唯一请求是,买点儿我们的东西就行。
Brad Gerstner:你说过,不只是更好的模型,还要有“世界级建造者”。你说,也许全国最强的建设者是Elon Musk。我们聊过Colossus One,他在那里把二十几万颗H100/H200组成一个“相干”的大集群。现在他在做Colossus Two,可能是50万颗GPU、相当于几百万H100的“等效”相干集群。
黄仁勋:如果他先于所有人做到1GW,我不惊讶。
Brad Gerstner:既能做软件与模型,又懂如何打造这些集群的“建造者”有什么优势?
黄仁勋:这些AI超级计算机极其复杂。技术复杂,采购复杂(融资),拿地、拿电力与厂房复杂,建设复杂、点亮复杂。这恐怕是人类史上最复杂的系统工程之一。Elon的优势在于:在他脑子里,这些系统是一体协同的,所有相互依赖关系都在他一个人脑中,包括融资。是的,而且……
Brad Gerstner:他自己就是个“大GPT”、一台“大超算”。
黄仁勋:对,终极“GPU”。他有很强的紧迫感,他非常想把它建出来。当“意志”与“能力”相遇时,不可思议的事会发生。
主权AI:AI正在成为每个国家的基础设施
Brad Gerstner:你深度参与的另一块是主权AI……回看30年前,你大概难以想象如今你经常出入白宫。总统说你与英伟达对美国国家安全至关重要。面对这些,先给我个背景——若不是各国把这件事视为“生死攸关”,至少不亚于我们在1940年代看待“核”,你也不会出现在那些地方。如今如果没有一个由政府出资的“曼哈顿计划”,那它也由英伟达、OpenAI、Meta、Google来出资。
黄仁勋:没有人需要原子弹,但人人都需要AI。这就是巨大的不同。AI是现代软件。这是我一开始就说的:从通用计算到加速计算,从人写代码到AI写代码,这个根基不能忘,我们已经重塑了计算。它需要被普及,这就是所有国家都意识到必须进入AI世界的原因,因为每个国家都必须在计算中保持现代化。不会有人说:你知道吗,我昨天还用计算机,明天我就靠木棍和火种了。所以每个人都得继续向前,只是计算被现代化了而已。
第二,为了参与AI,你必须把自己的历史、文化、价值观写进AI。随着AI越来越聪明,核心AI学这些的速度很快,不必从零开始。所以我认为每个国家都需要一定的主权能力。我建议大家都用OpenAI、用Gemini、用Grok、用Anthropic……用各类开放模型。但他们也应该投入资源去学习如何“构建”AI,这不仅是为了语言模型,也是为了工业模型、制造模型、国家安全模型。他们要培养一整套“自己的智能”。因此,每个国家都应具备主权能力。
Brad Gerstner:这是否也是你在全球听到与看到的?
黄仁勋:是的。他们都会成为OpenAI、Anthropic、Grok、Gemini的客户,但同时也需要建设自己的基础设施。这就是英伟达在做的大想法——我们在构建“基础设施”。就像每个国家需要能源基础设施、通信与互联网基础设施,现在每个国家都需要AI基础设施。