数据中心AI芯片是AI算力的核心,英伟达目前是全球一骑绝尘的绝对领军者,除了英伟达,包括英特尔、AMD、博通等传统芯片公司,以及华为、阿里、海光、寒武纪、沐曦中国公司等也在积极布局,但暂时难以撼动英伟达的主导者地位。现在,这个炙手可热的赛道上,多了一个选手——智能手机芯片领域的全球龙头公司高通再次高调宣布入局。
10月27日,高通发布面向数据中心的两款AI推理芯片Qualcomm AI200和AI250及机架。
AI200(2026 年上市)和 AI250(2027 年上市)均采用高通Hexagon NPU(神经网络处理器),主打低功耗、高性价比和模块化部署,直接挑战英伟达。
为展示决心,高通官方表示,其数据中心芯片路线图将每年更新一次。高通还透露,沙特支持的AI创业公司Humain将从2026年开始部署200兆瓦的高通新型AI机架。若按单机柜160千瓦计算,200兆瓦的部署规模相当于约1,250个机架,参考英伟达高端机架级AI系统价格(260万美元至300万美元之间),Humain有望为高通带来超过30亿美元的收入。
这并非高通第一次进军数据中心领域。早在2017年,高通推出了基于ARM架构的服务器芯片Centriq 2400,该芯片面向数据中心通用计算,直接对标当时的绝对领导者英特尔。但由于ARM芯片生态在当时的服务器芯片领域仍然比较弱,高通无法从英特尔和AMD手中赢得足够数量的客户,2020年,高通以关闭“非核心业务”为由停止了ARM服务器芯片业务。
五年后再度入局服务器芯片市场,此时高通要挑战的对手已经从英特尔换成了英伟达,资本市场给出了积极反馈。
消息公布当日,高通股价直线上涨,日内涨幅一度接近21%,截至美股收盘,股价收于187.68美元,涨幅为11.09%,市值单日增加近280亿美元至2025亿美元。这一表现不仅跑赢同期纳斯达克指数(上涨1.86%),也创下高通自2019年以来的最大单日涨幅。
01
高通的多元化焦虑与野心
如果说2017年第一次布局服务器芯片是尝试和探索的话,那么这一次,高通的业务多元化焦虑更重,步子迈得更快。
高通收入主要来自两大块,一块是芯片业务,包括手机芯片、汽车芯片和其他芯片;另一块收入来自专利授权,指高通向手机厂商收取 3G/4G/5G 标准必要专利的使用费。
高通财报显示,2024财年(2023年9月末-2024年9月末)营收389.6亿美元,同比增长9%。其中,芯片业务(包括其手机、汽车和其他芯片)营收331.9亿美元,而手机芯片业务受益于安卓高端机型需求回暖同比增长10%,达到248.63亿美元。
但手机芯片业务作高通核心收入来源,一直面临结构性增长瓶颈,甚至可以说是危机。
主要危机来自苹果加速去“高通化”。苹果手机搭载的是高通基带芯片,在2025年2月投资者会议上,高通管理层明确透露苹果业务在高通手机业务中占15%到20%左右。但苹果一直在自研基带芯片且已初见成效:2025年iPhone 16e开始搭载自研5G基带芯片C1。业界普遍认为,与高通的基带芯片购买协议到期后(2026年四季度),苹果有可能全面启用自研芯片。一家名为Khaveen投资量化基金预测,全面替代情况下,2028年高通将损失约77亿美元收入(不含专利授权费)。
全球智能手机市场极度饱和,新需求疲软不振也是另一大隐忧。全球国际数据公司IDC统计数据显示,过去五年,全球智能手机出货量分别是12.9亿台(2020年)、13.5亿台(2021年)、12.1亿台(2022年)11.7亿台(2023年),12.4亿台(2024年)。尽管 2024年因AI功能驱动出现6.4%的反弹,但IDC预测2025年增速将放缓至1.6%,手机芯片需求难以恢复至疫情前水平。
手机芯片之外,过去五年,高通一直极力发展汽车芯片和物联网芯片。高通2024年财报显示,应用于AI PC、XR设备和工业物联网的物联网芯片业务收入54.23 亿美元,汽车芯片业务收入29.1亿美元,两者合计占高通芯片业务总营收的25.1%。
在高通2024年投资者日活动上,该公司公布增长目标:到2029财年,物联网和汽车部门的总收入将达到220亿美元,其中预计物联网部门的收入达140亿美元,汽车部门的收入达80亿美元。对此,摩根大通分析师表示,若目标达成,手机芯片将只占高通芯片收入的50%。上述Khaveen投资量化基金也认为,高通在物联网和汽车芯片业务能填补苹果业务流失带来的损失。
如今高通重启数据中心芯片业务,是高通业务进一步多元化的体现。
此前,高通的AI战略主要集中在手机芯片端蓄力。
高通手机端NPU的发展始于2007年首款Hexagon DSP的诞生,经过近二十年的技术迭代,已从最初的基础AI加速模块进化为支撑生成式AI的核心引擎。
如今高通手机芯片形成“NPU负责核心AI推理、GPU处理图形渲染、CPU响应即时任务”的异构计算体系。在大模型支持方面,高通2023年推出的第三代骁龙 8已实现终端侧流畅运行100亿参数级大语言模型(LLM)及视觉大模型(LVM)。通过内存架构升级(如 64 位寻址)、精度优化(如 INT2 量化)等技术,高通目标在终端侧实现千亿参数级模型的高效运行。
并且,为了发展端侧AI,高通打造了相应的AI 软件栈(Qualcomm AI Stack),支持目前所有的主流AI框架,包括TensorFlow、PyTorch、ONNX、Keras;它还支持所有主流的AI运行时环境(连接 AI 应用程序与底层硬件(如 NPU、GPU、CPU)的中间层软件组件),以及支持不同的编译器、数学库等AI工具。
在今年9月举办的高通骁龙技术峰会上,高通未曾透露数据中心AI芯片相关信息。但高通技术高管与合作伙伴嘉宾多次提到端侧 AI 芯片(本地设备如手机、汽车、IoT 终端的专用 AI 芯片)与云端 AI 芯片(数据中心的大规模 AI 计算芯片)联动的重要性与必要性,指出为了解决单一芯片形态无法覆盖“效率、安全、成本、体验” 的痛点,终端侧芯片与云端芯片须做好算力分工、数据协同与场景互补,最终才能构建更高效、灵活且实用的AI应用生态。
02
高通AI芯片机会几何?
2022年之前,高通的营收规模一直高于英伟达(英伟达2022年营收270亿美元)。但在2024年,英伟达的营收规模1305亿美元,是高通的三倍以上。
核心原因是,数据中心AI芯片市场在今年正在创造更大的增量——英伟达短短三年(2022年-2024年),增量收入就超过了1000亿美元。
目前数据中心AI芯片分成两大类,分别是英伟达的GPU(图形处理器),以及其他公司的ASIC(专用集成电路)芯片。
从技术差异来看,GPU是图形处理器,它的通用性更强。GPU最初为渲染3D图形而生,但这种架构恰好非常适合AI算法,尤其是大模型所需的大规模矩阵运算,因此成为了目前最主流的AI芯片。它在数据中心AI芯片市场至少占据半壁江山。
高通的AI芯片属于ASIC芯片。AISC芯片是针对特定用户需求、应用场景定制而设计的非通用可编程芯片。相较于通用处理器(如CPU、GPU),AIC芯片虽然研发门槛高、设计周期长,但具备算力密度高、能耗低的优点,且大规模量产后成本显著降低。
如今业界普遍看好ASIC芯片前景。高盛在今年9月曾在研报中预估2025年-2027年全球AI芯片需求量分别为 1000万、1400万、1700万颗。其中,ASIC芯片占比将从2025年的 38% 提升至2027年的45%,GPU芯片占比将从62%降至55%。
一位资深算法工程师曾对《财经》表示,目前大部分科技公司都不想完全依赖英伟达的AI芯片。ASIC又提供了一种新的技术方案。因此这为其他芯片侵蚀英伟达的市场份额提供了可能性。
ASIC是一种专用芯片,它一旦设计完成并大规模量产,单颗芯片制造成本可能低于同等性能的GPU,因此大量大型科技公司正在定制数据中心专用的ASIC芯片,其中包括谷歌的TPU系列、亚马逊的Trainium系列,华为的昇腾系列、阿里的PPU系列、百度的昆仑芯系列。
此外大模型这两年的技术发展趋势也加速了这个过程。AI分成了训练和推理两种算力需求。过去模型训练中,英伟达GPU几乎难以被替代。但随着主要模型的性能逐渐稳定成熟,模型训练的算力需求占比正在趋于稳定。使用模型,也就是推理的需求正在逐步增长。
推理场景中,ASIC芯片和英伟达的差距在缩小。AI芯片创业公司通常也倾向于采用ASIC这个技术方案。其中包括美国AI芯片创业公司Etched,以及中国的寒武纪、燧原科技等。
ASIC的种种优势,让高通有机会试图切入数据中心AI芯片市场。蓬勃增长的ASIC芯片市场可以为它创造新的增长曲线。高通的优势之一就是低功耗。过去十多年,它在骁龙Snapdragon手机芯片上积累的经验,就是如何在有限的功耗下实现更强的性能。这个能力可以平移到数据中心市场——数据中心最大的运营成本之一就是电费和散热。
高通两款产品本身也不乏亮点。据介绍,高通AI200单卡配备768GB LPDDR 内存,容量是英伟达GB300芯片的2.67 倍,能为大语言模型和多模态模型运行提供充足的内存支撑。AI200还支持灵活部署,可作为独立组件、服务器加速卡或完整机柜方案交付,适配不同客户的硬件环境。
AI250引入“近存储计算”架构,高通宣称内存带宽提升超10倍且功耗显著降低。这些技术特性被市场视为对英伟达GPU的差异化竞争策略,尤其在AI推理场景中可能具备成本优势。
两款产品均配备直接液冷散热方案,单机柜功耗达160千瓦,支持 PCIe 与以太网扩展,并集成机密计算技术,搭配覆盖端到端的自主研发软件栈,实现模型一键部署。
但和所有试图挑战英伟达的公司一样,高通同样面临英伟达通过CUDA建立起来的强大生态壁垒。英伟达CUDA生态构建了开发者-硬件-软件的闭环,全球90%的AI开发者依赖其工具链。多位行业人士表示,高通AI Stack虽支持PyTorch、TensorFlow等主流框架,但在算子库完整性、模型优化工具链成熟度上必然有差距。
并且,谷歌、亚马逊、微软都已自研AI芯片,除Humain外,高通能否吸引其他大型客户采购其AI推理芯片,是其后期能否长期发展的关键所在。

