在2025年9月10日的消息中,除了推出专为大规模上下文处理设计的Rubin CPX芯片之外,NVIDIA还公布了一款全新的AI服务器,其规模和性能相较前代产品实现了显著提升。
新一代AI服务器命名为“Vera Rubin NVL144”,主要面向AI训练与推理应用,是当前的旗舰级产品。该服务器每个机架将配备36颗Vera CPU和144颗Rubin GPU,并配备最高达1.4PB/s带宽的HBM4内存,同时提供最高75TB的高速存储空间。在使用NVFP4数据精度时,其总算力可高达每秒350亿亿次(3.5 EFlops),较上一代GB300 NVL72提升了3.3倍。
更进一步,NVIDIA推出了“Vera Rubin NVL144 CPX”版本,该配置额外加入了72颗Rubin CPX芯片,使得单个机架内的GPU总数达到144颗,CPU数量为36颗。该版本具备1.7PB/s的HBM4内存带宽、100TB高速存储,并支持Quantum-X800 InfiniBand或Spectrum-X以太网协议,搭配ConnectX-9 NIC网络接口。在NVFP4精度下,其总算力高达8 EFlops,相当于每秒800亿亿次运算,相比GB300 NVL72提升了7.5倍。
此外,该服务器支持灵活扩展,用户可根据需求将两台设备并联运行,使整体配置和算力实现翻倍。
NVIDIA表示,这种级别的AI服务器具备极高的投资回报率,每投入1亿美元即可带来高达50亿美元的产出。
根据NVIDIA最新发布的路线图显示,Rubin系列GPU及相关系统预计将在2026年底前正式面世。2027年将推出增强版的Rubin Ultra,随后在2028年,下一代Feyman GPU也将亮相,并继续搭配Vera CPU平台,进一步推动人工智能计算的发展。

评论
更多评论