近日,阿里巴巴开源了新一代通义千问模型 Qwen3,Arm 率先成为首批成功适配该模型的计算平台厂商。与此同时,Arm 面向人工智能 (AI) 框架开发者的开源计算内核 Arm KleidiAI 与阿里巴巴开源的轻量级深度学习框架 MNN 已深度集成。得益于此,Qwen3-0.6B、Qwen3-1.7B 及 Qwen3-4B 三款模型能够在搭载 Arm 架构 CPU 的移动设备上无缝运行,为用户提供卓越的端侧 AI 推理能力。
作为阿里巴巴最新开源的混合推理模型,Qwen3 在 AIME、LiveCodeBench 等权威评测集上斩获了同尺寸开源模型 SOTA。其中,Qwen3-0.6B、Qwen3-1.7B、Qwen3-4B 等三款模型兼具低功耗和高性能等优势,非常适合在移动端进行部署。
在 AI 模型快速迭代、日新月异的当下,开发者亟需一个具备可扩展性的通用技术底座,以便高效利用每一个新模型的优势。作为业界性能最强、能效最高的计算平台,Arm 为开发者提供了无缝优化其 AI 工作负载所需的卓越性能、能效、灵活性和可扩展性。Arm CPU 能满足不断发展的 AI 工作负载需求,是开发者的理想之选,它不仅能在模型推出时迅速实现适配与支持,还能随着模型的演进,通过 Arm 异构计算策略与 GPU、加速器及网络技术的共生协作,实现 AI 系统的最佳优化。在此次阿里 Qwen3 模型推出后,运行结果显示,Qwen3-0.6B、Qwen3-1.7B 及 Qwen3-4B 三款模型在基于 Arm 架构 CPU 的移动设备上,运行和响应速度大幅提升,为终端用户带来了极致的 AI 推理能力。
双方围绕千问大模型持续紧密合作,今年三月,Arm 与阿里巴巴淘天集团在搭载基于 Arm Cortex-X925 的旗舰移动系统级芯片 (SoC) 的智能设备上,通过 KleidiAI 与 MNN 的集成,模型预填充(指 AI 模型在生成响应之前先对提示词输入进行处理)性能提升了 57%,以及解码(指处理提示词后从 AI 模型生成文本的过程)性能提升了 28%。这一性能提升,使得运行在搭载 Arm CPU 上的通义千问 Qwen2-VL-2B-Instruct,其端侧多模态 AI 工作负载的性能显著增进,带来全新的用户体验!
展望未来,Arm 也将一如既往助力开发者在端侧设备上提供更加复杂的多模态体验,为新一轮智能计算浪潮奠定坚实基础,在 AI 的不断演进中,实现体验的持续跃升!