9月26日,中兴通讯在2025阿里云栖大会上发表“基于正交架构的超节点系统”主题演讲,深入介绍中兴高性价比超节点解决方案。依托在AI与算力领域的持续技术深耕,该方案以正交架构为核心,实现高性能与经济性的精准平衡,为企业数智化转型提供强力算力支撑。
作为数字经济基础设施核心参与者,中兴通讯长期聚焦AI底层技术创新,在算力硬件、互联架构等领域形成全栈优势。本次大会展示的正交架构超节点系统,是其技术积累的重要落地成果,该架构采用正交互联技术优化内部数据流转,配合自研交换芯片的互联和加速能力,GPU间带宽利用率相比业界提升一倍。

中兴通讯算力产品硬件总监肖馥林现场讲解正交超节点系统
当前AI能力应用非常依赖GPU卡构建的算力,中兴推出的正交超节点系统,支持Scale-Up与Scale-Out双重扩展模式,可以满足各类企业从业务初期到中期的算力增长需求。针对中小企业AI应用起步时“算力需求迫切但成本敏感”的核心痛点,系统搭载NebulaX64架构服务器,单机柜可集成64个GPU卡,通过多卡并行协同算法,相同数量GPU情况下,相比传统服务器,训推性能提升30%以上;在企业中后期算力需求增长时,机间能拓展至万卡规模,既满足当前业务需求,又避免资源浪费。这种“按需扩展”的弹性特性,让各类企业无需承担超额初期投入即可享受高阶算力服务。
在保障经济性的同时,该超节点系统的性能表现同样亮眼,GPU间通信带宽达到单向400GB/s-1.6TB/s,时延达到百纳秒级,可轻松应对大模型推理、数据分析等主流AI场景。结合液冷技术与智能运维系统,方案进一步降低设备运行与管理成本,形成“部署省、运维省、扩展省”的全周期成本优势。