IT之家 5 月 15 日消息,5 月 13 日,联发科在上海举办了以“全域芯智能,体验新无界”为主题的天玑开发者大会 2026(MDDC 2026),在大会上,联发科正式发布天玑 AI 智能体化引擎 2.0,推出升级后的天玑 AI 开发套件 3.0,同时公布了与 OPPO、小米、传音等厂商合作的系统原生 Claw 成果。
IT之家作为受邀媒体也参加了本次 MDDC 2026,并在会后参与了联发科高管的群访活动。在采访中,联发科高管们针对行业普遍关注的跨端智能体协同、AI 定义汽车等核心问题,与大家进行了交流。

在采访过程中,IT之家向联发科高管提问,当前行业正处于 AI 智能体大规模落地的关键节点,跨设备全域协同已成为公认的发展趋势,联发科如何通过移动平台、座舱平台等多产品线的协同,打通手机、汽车、边缘计算设备的智能体能力,又将如何解决跨端流转中延迟高、算力调度不均、生态不通等痛点。
对此,联发科高管回应称,公司从三个层面系统性推进跨域协同布局,首先在 IP 设计源头就充分考虑不同产品线的复用性,统一 NPU 架构的软硬件标准,确保同一 IP 能够适配从手机到汽车的不同功耗和算力需求,大幅降低技术迁移成本。
其次在软件层,联发科打造了统一的 NeuroPilot 开发平台,只要基于天玑品牌开发的应用,在手机端完成调试后即可快速移植到汽车、平板等其他终端,实现“一次开发,多端部署”。
而针对最复杂的生态层问题,联发科表示,不同终端的生态体系差异确实是当前最大的挑战,这需要整个行业共同努力。大模型的泛用性为解决这一问题提供了新思路,通过统一的自然语言指令集,不同系统间的交互壁垒正在被打破,就像近期火热的“龙虾”框架,其核心价值之一就是实现了跨系统的指令互通。
联发科正通过开发者大会持续推动生态伙伴共建统一标准,未来支付、导航、社交等基础服务将能够无缝接入天玑全产品线。

同时,针对不同终端的特性,联发科也设计了差异化的协同模式,比如 AI 眼镜主要承担感知功能,复杂运算交由手机完成;而汽车与手机则更多是资讯和习惯的流转,用户上车后,手机会自动将行程、音乐偏好等数据同步给车机,车机则基于这些信息提供个性化服务。
除了IT之家的提问,其他媒体也围绕 AI、车载平台以及移动游戏领域的话题进行了提问。这里IT之家选择其中比较重点的问题和大家分享。
比如有媒体谈到了联发科座舱平台的问题,目前行业从“软件定义汽车”演进到“AI 定义汽车”,但汽车作为传统工业产品,在快速迭代中面临着质量与安全的双重挑战,AI 能否在安全性上带来更大提升?同时,联发科从移动终端切入汽车市场,相较于其他芯片厂商有哪些核心优势,又有哪些能力需要重新打造。
联发科高管表示,需要明确区分车内不同模块的安全属性,智驾和车辆控制模块与行车安全强相关,必须经过完整严格的验证流程,开发周期不会因为 AI 的引入而大幅缩短。而座舱智能体应用与安全的关联度较低,更多是为用户提供行程规划、信息查询、娱乐服务等功能,帮助驾驶员减少分心操作,间接提升行车安全。
这一领域的创新速度会非常快,尤其是国内新能源厂商,已经在积极探索各类座舱智能体应用,预计很快就会有大量落地成果。
关于联发科的核心优势,高管强调,手机行业是端侧 AI 技术发展最快的领域,每年都会有新的旗舰平台推出,对算力、能效、带宽的要求不断提升,这些技术积累可以直接迁移到汽车领域。
比如天玑旗舰座舱平台 CX-1 的 400TOPS 算力,以及低比特压缩、内存优化等技术,都源自手机端的成熟方案。而需要重新打造的主要是应用层的跨端协同体验,手机和汽车的使用场景差异巨大,如何让智能体在不同场景下都能提供自然流畅的服务,需要与车企、应用开发者共同探索,这也是联发科未来重点投入的方向。

关于联发科率先提出的 Agentic AI 技术路线,有媒体询问其在这一领域的关键技术布局和生态优势。
联发科表示,AI 技术的核心价值在于落地到真实用户场景,而当前行业面临的主要挑战不是算力不足,而是如何将算力转化为用户可感知的体验。联发科重点布局了 Always-On 感知技术,让设备能够低功耗地持续感知周围环境和用户行为,同时优化系统架构,解决多应用同时调用 NPU 时的资源争抢问题。
在生态建设方面,联发科构建了从硬件到软件的完整体系,硬件层面提供适配智能体场景的双 NPU 和内存技术,工具链层面帮助开发者快速将大模型移植到端侧,系统层面推出天玑 AI 智能体化引擎 2.0,为终端厂商提供统一的智能体开发基础。
针对近期内存涨价对 AI 行业的影响,联发科高管坦言,内存和带宽已经成为端侧 AI 发展的主要瓶颈,当前手机端算力已经能够满足大部分应用需求,但大模型运行对内存的占用和带宽的消耗非常大。
为应对这一挑战,联发科推出了 Low Bit 压缩工具包,相同质量模型的压缩率提升可达 58%,同时结合内存硬件压缩、动态模型加载等技术,有效降低内存占用和带宽消耗。
虽然内存涨价给终端厂商带来了成本压力,但这只是暂时现象,当用户真正体验到 AI 智能体带来的价值后,会愿意为更好的体验买单。
同时,内存涨价也促使行业更理性地思考端云边界,避免盲目追求端侧大模型,而是根据产品定位合理分配端云算力。
此外,还有媒体关注到大模型在 AI 手机中的角色,以及近期火热的“龙虾”框架对联发科技术路线的影响。
联发科认为,大模型在 AI 手机中有两种主要发展方向,一种是谷歌等 OS 厂商从系统层面向上整合,另一种是豆包等应用厂商从应用层面向下渗透,两种方向都有广阔的发展空间,联发科与双方都保持着积极合作。
“龙虾”框架的出现加速了个人专属 AI 的落地进程,其将 Harness 与大模型分离的设计,让手机可以先利用强大的 CPU 跑好 Harness 部分,实现个人记忆、场景感知等核心功能,无需等待端侧大模型完全成熟。
这也影响了联发科的芯片规划,未来的天玑平台将更加注重 CPU 与 NPU 的协同调度,提升系统整体能效。
相关新闻
关键词:AI- 怎样防止AI勒索人类?答案是别给它喂坏科幻
- 微信发布全球青少年 Ai+小程序洞察报告
- 辽宁联通联合华为推出AI WAN确定性平面方案实现直播业务体验、运营效能、业务价值三重跃迁
- 卢伟冰:小米将发布新系列空调!内置端侧AI芯片+云端大模型
- 阿里 AI 编程工具 Qoder 1.0 发布,号称“从 AI IDE 迈向智能体自主开发工作台”
- 中兴通讯亮相GSMA LATAM 360峰会:AI与网络双向赋能,重构拉美数字商业模式
- 行业首家 双项认证 中国移动梧桐数据·本体智能平台(KnoVa)引领本体智能领域标准化建设
- 人类大替代?Figure AI 人形机器人直播分拣快递:工作 33 小时处理超 4 万个包裹,但还有瑕疵

