“若天压我,劈开那天;若地拘我,踏碎那地。”这句出自《悟空传》的经典台词,如今在中国AI算力领域找到了新的注脚。当国产AI硬件在智算中心的占比持续攀升,当全国算力一体化网络加速铺开,一个被行业忽视的真相逐渐浮出水面:在AI基建中占比仅约10%的网络,正成为撬动30%智算业务提升的关键杠杆。
在第九届未来网络发展大会上,新华三集团高级副总裁乔剡抛出一个颠覆性观点:通过网络性能优化,无需追加硬件投入即可提升算力业务能力20%-30%。这个数据背后,折射出中国智算产业正在经历的深刻变革——从单纯追求算力规模,转向关注算力释放效率。
当前智算中心建设面临三重挑战:万卡集群的互联瓶颈、跨域传输的时延抖动、异构算力的兼容难题。以DeepSeek模型普及推动的万卡集群建设为例,超节点架构要求网络在紧凑空间内实现数百GB级卡间带宽,而传统Scale Out模式则需应对200-400Gbps参数面传输需求。新华三交换机产品线产品管理部部长陈伯超指出:“当GPU发送数据时,若网络无法感知最优路径,一次链路故障就可能导致训练进度拖延数日。”
这种端网割裂现象在传统架构中尤为突出。服务器团队管理算卡,网络团队负责设备,两个体系缺乏协同机制。新华三自主研发的端网协同方案通过熵值分配与增强CBRC算法,将万卡集群上线周期从数周压缩至数天。该方案已在50余款交换机及多家GPU厂商完成联合验证,实现故障实时监控与自动化性能验证。
在硬件创新层面,新华三推出的AI交换机H3C S9828-128EP成为行业焦点。这款配备128个800G端口的设备交换容量达102.4T,采用两层架构即可支持超10K个800G端口。相比传统方案,设备用量减少70%,光模块用量下降50%,在降低智算中心耗电量的同时提升系统稳定性。针对不同场景需求,H3C S12500AI系列采用DDC架构满足算力解耦,国产芯片版H3C S9825-8C-G则完美适配国内算力生态。
面对多元异构算力集群的接入需求,新华三自研的DDC架构展现出独特优势。传统ECMP方案存在负载不均问题,InfiniBand方案则面临成本高企与生态封闭的双重困境。DDC架构通过信元转发技术将数据切分为512字节切片均匀分发,彻底消除HASH极化现象,实现100%负载均衡。这项技术使多元算力设备得以平滑接入,在保持性能优势的同时兼顾成本与开放性。
在广域算力调度领域,新华三与未来网络集团历时四年打造的确定性网络存算拉远方案取得突破。基于IPv6+与广域RDMA技术,500公里跨域链路的传输效率提升至原有水平的6倍。这项创新使得算力枢纽能够直接服务其他省市政企客户的推训业务,实现普惠型算力供给。对于更长距离的业务需求,IPv6+端到端优化技术可满足更多场景需求,为“东数西算”工程提供技术支撑。
边缘场景作为AI算力接入的“最后一公里”,新华三通过Cloudnet云管网络方案与SD-WAN技术,简化了家庭、园区等边缘算力的部署流程。这种解决方案确保了无人车、巡检机器人等终端设备的算力需求得到稳定响应,为AI技术落地提供了基础设施保障。
新华三的差异化优势源于三大核心竞争力:计算与联接的深度融合、开放兼容的生态战略、工程化的落地能力。作为同时深耕计算与网络领域的系统级厂商,新华三将交换机光模块适配、液冷架构兼容等工程细节做到极致,同时深刻理解GPU通信协议与AI训练流量模型。这种跨领域能力使其网络设备能够主动为数据、算子和模型规划最优路径,而非仅仅作为被动传输通道。
在生态建设方面,新华三首创的DDC架构信元转发技术,使不同厂商的国产AI芯片能够在统一网络体系中协同工作。通过与江苏省未来网络创新研究院联合攻关确定性网络,与江苏电信合作边缘网关方案,与GPU厂商共建测试认证体系,新华三将自己定位为生态枢纽,推动产业链各方在其网络底座上实现价值最大化。
这种实战导向的创新哲学,在S9828-128EP交换机的液冷设计中得到充分体现。该产品既要实现高效散热,又要兼容现有机房环境,背后是大量复杂的技术攻关。正如乔剡所言:“我们把困难留给自己,把便利留给客户。”这种工程化能力使得技术创新能够快速转化为客户易用、易部署的产品,在产业竞争中占据先机。
当网络从智算中心的配套设施升级为关键杠杆,当新华三的技术方案支撑起从中心到边缘的全场景算力释放,中国AI产业终于握住了突破算力桎梏的钥匙。这根由技术创新铸就的杠杆,不仅承载着大国智算的重托,更守护着千行百业对算力资源的迫切需求,成为推动行业智能化的核心力量。