人工智能正以史无前例的速度重塑各行业,这场变革背后离不开海量算力的支持。当AI模型参数从亿级跃升至万亿级,“超节点”开始逐渐取代单机与传统集群,成为新一代的“算力法宝”。   超节点,即Superpod,是一种用于构建大规模算力集群的技术架构。此概念最早由英伟达提出,指将数千张GPU集成在一个逻辑单元内,形成类似“超级计算节点”的系统。与传统架构不同的是,超节点可以通过高速互联技术,弥补原先服务器间带宽不足以及高时延等问题,以期实现算力效率的优化。   在不久前举行的2025云栖大会上,阿里云发布了磐久128超节点AI服务器。据悉,该服务器集成阿里自研CIPU 2.0芯片和EIC/MOC高性能网卡,单柜支持128个AI计算芯片。同等算力下,相较于传统架构,该服务器推理性能可提升50%。   除推理场景外,超节点亦可用于AI训练。今年4月,华为推出CloudMatrix 384超节点,其通过构建超过万片的大集群来提供算力。对于万亿、十万亿参数的大模型训练任务,在云数据中心,可将432个超节点级联成最高16万卡的超大集群。   在9月召开的华为全连接大会上,华为表示CloudMatrix 384超节点已销售300余套,共服务20余家客户,主要需求来自政企。未来,华为还将推出Atlas 950 SuperPoD超节点,算力规模8192卡,预计于2026年四季度上市。新一代产品Atlas 960 SuperPoD算力规模将达到15488卡,预计2027年四季度上市。

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论
立即
投稿
发表
评论
返回
顶部