随着大模型参数进入爆炸式增长阶段,AI算力需求正加速从单点突破走向系统级整合。
在这一背景下,“超节点”作为突破传统算力瓶颈的新型产品形态,正逐步成为行业主流。华为副董事长、轮值董事长徐直军在华为全联接大会2025上表示,从大型AI算力基础设施建设的技术方向看,超节点已经成为主导性产品形态,并正在成为AI基础设施建设的新常态。
在超节点赛道上,国内科技巨头已率先交出答卷。华为此前已推出CloudMatrix384超节点,将384颗昇腾NPU和192颗鲲鹏CPU通过高速网络MatrixLink全对等互联,形成一台超级“AI服务器”,单卡推理吞吐量达到2300 Tokens/s。近期,阿里云发布新一代磐久128超节点AI服务器,集成阿里自研CIPU 2.0芯片和EIC/MOC高性能网卡,单柜支持128个AI计算芯片。
从全球来看,人工智能基础设施建设正按下“加速键”,英伟达、OpenAI、Meta等科技巨头纷纷抛出AI基建新计划,推动AI算力规模发展。华龙证券认为,中美AI竞争正从“单卡性能”走向“系统级效率”,中国正在用集群建设+开源生态+工程化交付的方式完成AI基建方面的弯道超车。
国产阵营发力超节点
AI算力发展面临的现实瓶颈推动了超节点的诞生。中国信通院在《超节点发展报告》中明确指出,当前AI算力建设正面临“通信墙、功耗散热墙、复杂度墙”三大挑战。其指出,千亿级模型一次梯度同步产生的TB级数据让传统以太网带宽难以承受;同时,伴随算力规模扩大,万级处理器带来的故障常态化,对自动化运维与RAS能力提出了更高要求。
从技术定义来看,信通院明确超节点是由AI计算节点通过高速互联协议组成、具备更大内存空间的AI系统,超节点可以支持32及以上AI芯片,AI芯片到交换芯片带宽不小于400GB/s,交换设备时延小于500ns。超节点域内AI芯片支持内存统一编址,AI芯片使用内存语义可直接访问其他AI芯片的内存。
超节点要实现大规模高效组网,需要通过Scale Up组网突破单机算力边界,构建大规模高速互联体系;同时,通过Scale Out组网实现集群化扩展,打破单节点算力限制。这两大能力直接决定了AI模型训练与推理的效率,以及算力规模拓展的边界。
华为等公司已经完成了超节点服务的落地。徐直军表示,CloudMatrix384超节点是基于Atlas 900超节点构建的云服务实例,Atlas 900超节点自今年3月上市以来,已经累计部署超过300套,服务20多个客户,Atlas 950超节点将于2026年第四季度上市。
据悉,相比英伟达同样将在明年下半年上市的NVL144,Atlas 950超节点卡的规模是其56.8倍,总算力是其6.7倍,内存容量是其15倍,达到1152TB;互联带宽是其62倍,达到16.3PB/s。华为云还将开放面向超节点的互联协议——灵衢2.0技术规范,并推出全球首个通用计算超节点TaiShan 950超节点。
阿里巴巴集团CEO、阿里云智能集团董事长兼CEO吴泳铭在2025云栖大会上强调,超级AI云是下一代的计算机。新的AI计算范式需要更稠密的算力、更高效的网络、更大的集群规模。
据悉,磐久128超节点AI服务器采用开放架构,扩展能力加强,可实现高达Pb/s级别Scale-Up带宽和百ns极低延迟,相对于传统架构,同等AI算力下推理性能还可提升50%。吴泳铭还宣布,阿里巴巴正在积极推进三年3800亿的AI基础设施建设计划,并将会持续追加更大的投入。
国内其他厂商也在加速推进超节点布局。中科曙光发布国内首个基于AI计算开放架构设计的曙光AI超集群系统;浪潮信息发布面向万亿参数大模型的超节点AI服务器“元脑SD200”;沐曦股份发布多种超节点形态,包括光互连超节点(16-64x GPU)、耀龙3D Mesh超节点(32/64x GPU)等。
巨头加码,全球AI基建按下“加速键”
国新证券认为,超节点架构的核心在于,其“总线级互联”与“平等协同”机制,使得万卡集群在逻辑上能够作为一台统一的计算机高效运行,实现计算与内存资源的全局调度。华为在昇腾AI芯片与超节点技术上的突破,恰逢全球AI算力投资热潮。国产算力产业链借助华为的开放策略,在芯片制造、HBM封装、光通信及液冷温控等多个领域获得发展机遇,但核心挑战仍集中在生态成熟度层面。
同时,有业内人士表示,超节点正驱动智算中心基础设施发生深刻变革,未来智算中心必须具备高密度、高效率、高弹性和大规模的“四高”特征。
当前,全球正兴起新一轮的AI基建热潮。
当地时间10月6日,OpenAI称与AMD达成一项战略合作。OpenAI将部署6吉瓦AMD GPU算力,使用AMD Instinct系列GPU为其下一代人工智能基础设施提供动力支持。据悉,首批1吉瓦AMD Instinct MI450 GPU的部署预计将于2026年下半年启动。
当地时间9月22日,OpenAI和英伟达宣布签署意向书,双方计划为OpenAI的下一代 AI 基础设施部署至少10吉瓦的英伟达系统,用于训练和运行其下一代模型,从而部署超级智能。为支持数据中心和电力容量部署,英伟达还计划对OpenAI投资高达1000亿美元。而此前,OpenAI也与数据库巨头甲骨文签署了一份为期五年、总价值高达3000亿美元的算力合作协议。
尽管多方间潜在的利益关联与协同动作,引发了市场对英伟达、OpenAI、甲骨文三者“循环交易”的质疑,不过,这也表明了,加速AI基础设施建设已成为不可阻挡的行业趋势。
英伟达高管此前在财报电话会上表示,预计到2030年,人工智能基础设施支出将达到3万亿至4万亿美元。
开源证券研报认为,全球科技巨头在AI算力基础设施领域持续加大投入,将驱动模型、智能体能力迭代不止,助力内容创作、社交、广告、电商、教育、金融等领域AI应用商业化加速。
新京报贝壳财经记者 韦博雅
编辑 王进雨
校对 赵琳