当前,全球AI芯片市场正在经历一场深刻的范式转移。
长期以来,GPU一直被视为AI训练的默认选项。然而大概自2025年起,一场围绕ASIC的产业变革开始剧烈发酵。
ASIC,一个产业拐点的信号与数据
2026年Q1,谷歌TPU在其AI服务器出货占比飙升至78%,远超GPU份额;OpenAI宣布将在2026下半年至2027年部署博通定制ASIC构建10吉瓦算力集群,单算力成本降低约35%。
这些信号背后,是AI算力重心的历史性迁移,从训练军备竞赛转向推理规模化落地。
与此同时,联发科副董事长蔡力行在法说会上明确将数据中心ASIC列为“公司最具想象空间的成长引擎”,上调营收目标,显示其来自超大客户的订单正加速落地。
高通宣布杀入数据中心战局,凭借收购AlphaWave积累的IP,拿下关键大客户,宣示向英伟达发起正面挑战的决心。
国内方面,芯原股份ASIC量产业务爆发式放量,翱捷科技(ASR)则首度将ASIC定制业务定位为“第二成长曲线”,两大独立IC设计服务商均在业绩端兑现了高增长逻辑。
这些密集释放的信号,都指向同一个正在成型的事实:ASIC产业正迎来“黄金时代”。这不是某几家公司的战略选择,而是一场全局性的产业拐点。
德勤最新数据揭示了这一拐点:AI推理负载占比从2023年的1/3飙升至2026年的2/3,长期将进一步突破,市场规模是训练硬件的2-3倍。高盛更预测,2026年ASIC占AI芯片比例升至40%,2027年突破45%,几乎与GPU平分秋色。Counterpoint Research则指出,AI ASIC市场规模将从2024年120亿美元增至2027年300亿美元,年复合增长率高达34%。
整体来看,2026年AI加速器市场正处于一个关键的转折点——竞争已从单颗芯片的算力比拼,蔓延至互连、交换机、软件生态与系统架构的全方位对抗。
ASIC起飞,为什么是现在?
如果要为ASIC的崛起寻找一个支点,答案或许藏在AI产业最底层的经济账里。
随着AI大模型优化大幅降低推理成本、AI编程与AI Agent广泛进入工业生产环节,AI推理在2025年下半年彻底爆发并成为行业共识。一个简单的物理事实逐渐变得不可回避:当模型部署规模推向亿级用户时,拿动辄数万美元的通用GPU去做高并发的即时推理,本质上是“杀鸡用牛刀”——不是做不到,而是结构性不划算。
这正是ASIC的机会。
随着AI算力需求从训练主导向推理主导结构迁移,定制化芯片的能效比和成本优势成为核心驱动力。在推理场景中,ASIC芯片的延迟更低、能耗更省、单位成本更优,足以从根本上动摇GPU十余年建立的成本模型。
通用GPU在推理场景存在功耗与成本双瓶颈,尤其当AI Agent爆发导致Token消耗暴涨10-100倍时,这一矛盾愈发突出。ASIC通过定制化架构,将晶体管资源全部投入特定计算,剔除冗余功能,实现3-5倍能效比提升、TCO降低40-60%,完美适配大规模推理场景。
举例来看,OpenAI联合博通推出的定制推理芯片能效比达到了6.8TOPS/W,而英伟达GB200的对应指标仅为4.5 TOPS/W,差距一目了然。亚马逊新任AI基础设施负责人曾直言:“如果我们能在自研芯片上构建模型,就能以纯AI模型提供商成本的一小部分来完成这些任务。”
更重要的是,本轮ASIC浪潮并非从零开始的无序爆发,而是建立在一条已成熟的AI工作负载共识之上。
据悉,Transformer架构长期主导大模型世界,使得ASIC的专用性设计不再受困于“应用面过窄”的经典魔咒——任何针对Transformer高度优化的专用架构,都能在足够广阔的市场空间中兑现其成本与能效优势。
历史上ASIC因“投资大、风险高”而长期局限于小众场景,如今这一前提已经改变:当专用设计面对的是一片几百亿美元级别的可服务市场,且工作负载结构高度统一时,ASIC便从GPU的低成本替代方案,真正升级为AI基础设施进化的必然选项。
与此同时,各大云服务商的集体转身,释放了最为关键的市场信号。
作为全球最大的算力采购群体,谷歌、AWS、微软、Meta等几大CSP正在统一向自研或定制ASIC倾斜。TrendForce预估,2026年CSP和主权云的AI服务器需求将持续强劲,而ASIC服务器44.6%的出货增速将显著超越GPU服务器的16.1%。
这绝非简单的“降本”思维——在AI基础设施成为核心战略资源的当下,掌握芯片的定义权,就意味着掌握了算力的定价权和供应链的自主权。用真金白银为ASIC投票,已经成为云厂商从被动采购走向主动定义的战略必选动作。
新旧势力交织,全球ASIC版图重构
在AI算力需求端爆发之外,ASIC黄金时代的标志还在于——舞台上的玩家突然多了起来。
过去,ASIC的叙事主要围绕博通与Marvell两家老牌玩家展开;如今,联发科、高通等手机芯片巨头,正在跨界进击改写ASIC的竞争格局。
联发科先下一城,豪赌ASIC
联发科的转型故事,或许是这一轮ASIC浪潮中最具戏剧性的样本。
在手机市场触及增长天花板、2025年毛利率降至四年来低点47.5%的背景下,联发科CEO蔡力行果断将数据中心ASIC锁定为公司最具想象空间的成长引擎。去年7月法说会上,他向市场预告首个ASIC项目将于当季设计定案,从2026年开始贡献营收;到了2026年2月,蔡力行已能用“非常”二字修饰对目标的信心——2026年数据中心ASIC营收绝对突破10亿美元,2027年上看数十亿美元。
这一目标的兑现速度,甚至超过了分析师们的预期。据公开报道,联发科成功拿下Google数据中心ASIC订单,正是其在这场豪赌中先下一城的核心战果。
蔡力行本人更给出了一个令人瞩目的判断:2028年全球数据中心ASIC市场有望达到700亿美元规模,而联发科的目标不仅是此前预估的10%至15%的市场份额——“我们会争取更高。”为支撑这一雄心,联发科已在高速400G SerDes、CPO共封装光学、3.5D先进封装及客制化HBM等多个关键技术领域加大投资。
高盛的最新预测指出:2027年联发科AI ASIC营收最高可达123亿美元,对应10-15%的市场份额;2028年AI业务占比将超六成(66%),AI ASIC营收规模有望达480亿美元。Counterpoint Research则更乐观,预计2028年联发科将拿下26%的AI ASIC市场份额,出货量从2026年到2028年增长10倍,成为全球第二大供应商,仅次于博通。
可以说,联发科正在用一场从端到云的跨越,证明其在5G时代积累的SoC整合能力,同样能在数据中心领域打开广阔的想象空间。
高通:后发先至,直击推理核心
如果说联发科是稳扎稳打的先行者,那么高通就是气势汹汹的破局者。
2025年,高通以24亿美元全资收购高速有线连接技术企业AlphaWave Semi,并于2026年第一季度完成交割。这一动作的意图极为明确:借助AlphaWave积累的IP资产,补齐在高性能数据中心互联和定制芯片设计领域的关键能力缺口,为后续大规模切入云侧定制芯片市场铺路。
高通的打法堪称迅猛。
2026年4月30日,高通CEO安蒙对外确认,公司正与一家领先的超大规模云服务商合作开发定制芯片,首批出货定于12月季度启动,聚焦AI推理场景优化。
更引人注目的是高通的“三路并进”策略:同步研发通用CPU、专为AI推理打造的加速器和全定制ASIC芯片,三类产品构成一个完整的数据中心解决方案矩阵。据悉,2025年10月高通发布面向数据中心推理的AI200/AI250双剑,AI200预计2026年商用,AI250计划2027年推出。2026年4月,高通确认与头部超大规模云厂商合作的定制 ASIC项目年内启动首批出货。
在苹果、三星等核心客户加速推进自研芯片、消费电子业务遭遇结构性压力的背景下,高通选择用这样的方式杀入一个预计市场规模达万亿美元级的全新战场。安蒙对此的表述简洁有力:“我们可以说已经触底了。”
高通的差异化优势还在于端云协同的生态整合。其ASIC不仅能高效运行云端推理任务,还能与骁龙移动平台、物联网芯片实现无缝衔接,为客户提供从终端到云端的全栈AI解决方案。
博通与Marvell:双巨头的王牌版图
在新势力高歌猛进的同时,传统双巨头也并未原地踏步。
在ASIC领域,博通早已是公认的霸主。
得益于客制化芯片、AI网通产品业务成长,博通2025年营收上升至397亿美元,年增30%。其财报表现显示AI半导体的价值重心已从GPU扩散到客制化AI芯片和以太网络器、NIC(网络接口控制器)等整体网络架构。
博通的收入结构正在发生根本性转变:在2026财年第一季度,博通AI相关收入已达到84亿美元,同比增长106%,占其半导体收入比重持续攀升。
与此同时,博通CEO陈福阳在财报电话会上抛出了一个更加惊人的预测:到2027年,仅AI芯片(定制化ASIC)的营收就将超过1000亿美元,总出货量接近10吉瓦。这一目标远超此前市场预期。
谷歌、Meta、OpenAI、Anthropic等LLM平台级公司,正在纷纷构建自己的定制XPU。博通透露,公司目前正与六家主要客户紧密合作,共同开发AI专用处理器。这些客户包括:
谷歌:TPU芯片的重要合作伙伴,订单规模持续扩大
Meta:MTIA系列芯片路线图进展顺利,2027年交付量将达到数吉瓦
Anthropic:计划于2027年部署超过3吉瓦的TPU算力
OpenAI:宣布从2027年开始部署首代XPU,首年计算能力超过1吉瓦
值得注意的是,博通与客户的合作不是短期交易,而是多代战略绑定,合作周期长达2-4年滚动规划。一名博通高管对此的表述颇具标志性:“这些都是真实的客户需求,业务规模还会增长。”
另一边,Marvell在ASIC领域的布局同样深远。
2019年,Marvell完成对GlobalFoundries旗下ASIC业务Avera的收购,为定制芯片业务奠定基础。随着AI算力需求增长,Marvell的定制芯片(ASIC)业务已成为核心增长动力。
2026年3月31日,英伟达宣布向Marvell投资20亿美元,双方通过NVLink Fusion技术建立战略合作伙伴关系,将Marvell接入英伟达的AI Factory和AI-RAN生态系统。Marvell将提供定制XPU和NVLink Fusion兼容网络方案,共同开发下一代基础设施和硅光子技术。
2025年12月2日,Marvell宣布以约32.5亿美元收购光互连技术公司Celestial AI,交易于2026年第一季度完成。Celestial AI的Photonic Fabric技术能效是铜互连的2倍,可支持大规模AI系统的高带宽低延迟连接。Marvell同时推出1.6T系列光学DSP产品,以及2026年3月扩展的COLORZ 1600,为AI数据中心提供端到端光互联解决方案。
据财报披露,2026财年Marvell 总营收为81.95 亿美元,同比增长42%;其中包含ASIC在内的数据中心收入达到61亿美元,占总收入约74%。而在2024财年时,数据中心收入占比还只有约40%。这意味着,仅仅两年左右,Marvell的业务结构已经完成了明显切换。
据了解,Marvell最大的ASIC客户是亚马逊AWS(为Trainium芯片贡献核心IP);谷歌、微软、Meta均已是确认合作伙伴:谷歌与Marvell联合开发Axion Arm CPU,微软下一代AI加速器Maia由Marvell深度参与设计,Meta在定制AI XPU方向展开合作。Marvell声称已在超过20家客户处拿下AI ASIC设计订单。
与Broadcom的核心差异在于服务模式:Broadcom提供与自身网络产品组合深度绑定的端到端方案,客户一旦导入便高度依赖其生态;Marvell则提供更灵活的按需组合方案,更适合希望掌控自身架构的客户。
Marvell CEO Matt Murphy表示:“高速互联和光互连在AI规模化中日益重要。Marvell将ASIC定制与高速互联技术结合,为客户提供高性能连接和ASIC解决方案,目标是将AI相关业务收入占比提升至50%以上,成为AI基础设施领域的关键参与者。”
值得注意的是,博通、Marvell与OpenAI、Meta等公司的合作揭示出一个更深层的产业逻辑:对于顶级AI公司而言,自研ASIC的首要考量可能并非成本,而是供应链安全和架构自主权。“掌握芯片定义权”便成为了一道清晰的战略分界线。
在这场博弈中,成本只是表面诱因,架构主权才是那个更深处的引力中心。
从ASIC阵容版图来看:其一,手机芯片厂商凭借深厚的SoC设计积淀完成从边缘到中心的跨域转型,联发科的故事是系统整合能力跨域复用,高通则是资本并购加顺势转型。两条路径殊途同归,都指向同一个结论——ASIC领域的玩家结构,正在迎来代际更替;其二,传统ASIC双巨头的护城河远比预想的更深更宽;其三,云厂商自身也从采购方加速走向自研方,正在彻底改写产业链的议价格局。
ASIC浪潮中,中国力量崛起
更为耐人寻味的是,这场ASIC盛宴的参与者并非只有欧美巨头。在大陆半导体产业链内部,以芯原股份、翱捷科技(ASR)为代表的独立IC设计服务商,正在成为不可忽视的新一极。
芯原:AI ASIC的“卖铲者”
2025年是芯原股份的质变之年。全年新签订单金额高达59.60亿元,同比翻倍增长103.41%。其中,AI算力相关订单的占比已超过73%,数据处理领域订单占比超50%,主要来自云侧AI ASIC及IP。截至年末,芯原在手订单达到50.75亿元,已连续九个季度保持高位,预计一年内转化为营收的比例超80%。
这些数字本身已足够耀眼,但在2026年4月,芯原股份发布的订单公告更是震惊业界:1-4月新签订单82.40亿元,AI算力相关订单占比91.37%,更在短短9天内新增37.24亿元AI ASIC订单。Q1财报显示,芯原营收8.36亿元,同比增长114.47%,一站式芯片定制业务同比增长145.90% 。
这些数据从商业层面有力验证了全球AI ASIC需求的持续井喷,也为芯原后续的业绩增长提供了清晰且可预期的订单支撑。
芯原的核心竞争力在于全栈ASIC服务能力。从IP授权到芯片设计、量产业务,芯原提供一站式解决方案,聚焦云侧AI ASIC,客户涵盖全球头部云厂商,同时在AI眼镜、AI玩具等端侧新兴场景积极布局。更有意思的是,芯原与谷歌合作的超低能耗Coral NPU IP(基于RISC-V指令集),已经为端侧AI场景打开了专属ASIC的通道。
芯原CEO戴伟民在2026年Q1业绩说明会上表示:"AI ASIC市场爆发,客户需求远超预期。芯原凭借20年IP积累和芯片设计经验,已成为全球云厂商和AI公司首选的ASIC定制合作伙伴。2026年AI相关订单占比超90%,标志着芯原成功转型为AI算力基础设施服务商"。
能看到,芯原的角色,正在从单纯的IP供应商升维为端到端的AI ASIC平台型企业,在产业链中扮演着“赋能者”的枢纽角色。
翱捷科技:蜂窝基带巨头掘金第二增长曲线
作为通信芯片领域的资深玩家,翱捷科技 (ASR) 在ASIC赛道找到了第二增长曲线。
自2024年下半年起,智能穿戴、端侧AI及RISC-V芯片等方向的定制需求持续攀升,ASR已承接多个采用先进工艺制程的定制项目,在手订单饱满。2025年,ASR营收增长12.73%至38.17亿元,亏损大幅收窄超3亿元。
2026年Q1,ASR的ASIC定制业务收入1.88亿元,同比增长73%,占总营收比例提升至23%。为加速布局,ASR成立ASIC业务全资子公司,将20%研发资源向定制业务倾斜,覆盖AI云侧、端侧、可穿戴及RISC-V等领域。
ASR的差异化优势在于系统级ASIC解决方案能力。凭借基带SoC芯片领域多年技术积累,ASR能提供从芯片设计到系统优化的全流程服务,利用成熟IP库和供应链渠道,帮助客户缩短开发周期、降低成本。
对比来看,芯原和翱捷两家公司有一个共同的特征是:并非依靠单一客户或单一项目压注,而是凭借系统化的IP组合和定制能力,嵌入到AI产业大生态中,扮演“卖铲者”的角色。
在AI淘金热的市场氛围中,卖铲子的人往往赚得最稳。芯原和翱捷正在AI ASIC的“卖铲者”和“赋能者”两种身份之间建立自己的黄金窗口,依托中国丰富的产业链资源和应用场景,在全球AI芯片竞争中争取更大的话语权。
从自用到外销,AI产业链的底层重构
ASIC黄金时代的深层特征,不仅在于增长了什么,更在于改变了什么。
其中,富有戏剧性的信号,出现在2025年末。据报道,谷歌正在与Meta洽谈向其直接销售自研TPU芯片。这笔数十亿美元规模的交易一旦落地,将标志着TPU从谷歌内部私家正式走向商业化外销——Meta计划2026年从谷歌云租用TPU算力,2027年斥资直接采购硬件部署于自有数据中心。
在英伟达GPU长期保有超90%市场份额的背景下,这一合作的实质在于:云厂商正在用真金白银投票,构建“自研+外采”的开放算力供应链,以打破依赖单一供应商的路径锁定。
与此同时,以博通、Marvell、联发科等为代表的成熟ASIC设计服务生态,已经形成了高度专业化的分工闭环:CSP定规格、芯片商做设计、台积电负责先进封装。这种精细化的代工体系,使得任何拥有足够算力需求的大型企业,无论是OpenAI、苹果还是尚在筹划中的新兴玩家,都有可能成为下一颗自研ASIC的主人。
全球AI芯片市场,正从英伟达的一家独大,走向真正的百家争鸣。
这场变革的另一面,是产业链底层技术的全面协同升级。
AI驱动下的ASIC井喷,对计算架构提出了更高阶的要求。台积电CoWoS先进封装的月产能预计将从2025年底的约6.5至7万片,大幅扩充至2026年底的12至13万片,即便这样仍然无法完全满足客户旺盛的需求。
与此同时,博通推出了业界首个3.5D XDSiP面对面计算SoC平台,支持在紧凑形态下实现计算、存储和I/O的独立扩展,以支持千兆瓦级AI算力集群的庞大需求。
这些底层技术的同步演进表明,ASIC的崛起并非孤立发生,而是嵌入在从先进制程、先进封装到高速互连的全产业链进化之中——AI基础设施的竞争焦点,已从“拼单点算力”彻底转向比拼系统架构效率。
ASIC挑战与博弈并存
光芒背后,任何趋势都有其清晰而冷峻的另一面,ASIC自然也不例外。
有行业从业者向笔者表示:“开发成本与流片风险,是悬在每一个ASIC玩家头顶的达摩克利斯之剑。”一枚先进制程的AI ASIC芯片,从设计到流片动辄耗资数亿美元,一旦技术路径判断失误或需求节奏不及预期,数十亿美元的投资可能面临流产风险。
这从博通、Marvell等公司的财报中可见,定制ASIC业务的前期重投入特性,确实对整体毛利率形成了一定的结构性拖拽——这在短期内并非可忽略的压力。
软件生态的护城河,更是ASIC面对的最顽固壁垒。
众所周知,英伟达真正的护城河从来不止于硬件,而在于CUDA历经十余年打磨构建起来的庞大软件栈:数百万开发者、无数沉淀的库与框架、经年累月优化的算子生态。尽管AWS已宣布下一代Trainium将兼容英伟达的NVLink互连技术,试图通过切入主流生态来打薄这道壁垒,但ASIC生态要从零追赶至与CUDA匹敌的成熟度,道路尚远。
还有一个不容回避的结构性约束:全球AI芯片订单对台积电CoWoS先进封装的集中依赖。尽管台积电正在以前所未有的速度扩充产能,但在各大巨头同步抢单的背景下,排产的拥挤度风险依然显著。叠加地缘政治与供应链不确定性的影响,这不是一个可以被轻易忽略的变量。
此外,更深层的考验在于全定制与可编程灵活性之间的经典博弈。当ASIC出货量于2028年有望在实际数量上超越商用GPU时,考验的将不再是粗放的放量能力,而是如何平衡专用极致效率与通用弹性适配两个方向——前者是ASIC存在的理由,后者却是市场不愿放弃的优势。
对于目前的产业共识而言,或许并不存在完美解的答案,行业选择最终走向何方只能交给市场和时间去验证。
写在最后
站在2026年回望,一个更加立体的判断正在清晰:终局并非ASIC完全取代GPU,而是两者在一个共存的新格局中找到各自不可替代的生态位。
综合多家机构预测,AI加速器市场的竞争格局正在走向“训练靠GPU、推理靠ASIC”的特化分工,或者在更大规模的AI集群中实现ASIC与GPU的混合组网。
还值得关注的是,多重关键变量还将决定ASIC叙事在AI时代能够走多远。
AI工作负载的演变方向:Transformer架构的延续性,直接关乎ASIC专用设计的回报天花板——架构的每一次剧变,都是ASIC投资逻辑的潜在裂隙;
云厂商的生态开放程度:谷歌向Meta外销TPU的信号极其重要,如果CSP自研芯片从对内降本全面走向对外输出,ASIC将从一个成本故事升级为一个真正的市场故事;
系统架构的创新节奏:从芯片到机架、从算力到互连的全栈优化能力,正在取代单芯片TOPS,成为产业竞争的新核心标尺。谁能在CoWoS产能、3.5D封装和高速SerDes的综合矩阵中率先跑通最优解,谁就能锁定黄金时代下一程的领跑位置。
ASIC的黄金时代,本质是一场关于AI算力“民主化”的运动。
无论是联发科的跨界进击、高通的绝地反击、博通和Marvell的纵深布局,还是芯原与翱捷的突围,各方力量共同绘制的正是这个多元共生时代的真实底色。
它让算力的定义权从单极集中的芯片巨头,开始回归到云厂商、设备商乃至千行百业的终端用户手中。它宣告的是一个旧生态的松动和一个新逻辑的登场:在用什么芯片这个问题上,产业终于有了更多选择的权利。

