中关村在线

热点资讯

英伟达GB200碾压AMD:MoE推理性能28倍领先

1月2日,Signal65发布了最新的SemiAnalysis InferenceMAX基准测试分析报告。在Deepseek-R1 0528混合专家(MoE)模型的推理性能评估中,英伟达Blackwell架构的GB200 NVL72机架系统展现出显著优势,大幅领先于AMD的Instinct MI355X解决方案。

混合专家模型作为当前主流的AI架构之一,以Deepseek-R1 0528为代表,在执行任务时并非调用全部参数,而是根据输入内容动态激活最相关的子模块,即“专家”单元,从而提升计算效率。然而,该架构在扩展至大规模集群时,会面临节点间频繁数据交换所带来的通信延迟与带宽压力,成为制约性能的关键瓶颈。

为应对这一挑战,英伟达采用“极致协同设计”策略,通过将72颗芯片在单个机架内实现高度集成,并配置高达30TB的高速共享内存,显著优化了全对全通信模式下的数据传输效率,有效缓解了分布式推理中的延迟问题。

测试结果显示,在相近的集群配置条件下,英伟达GB200 NVL72方案在每GPU吞吐量上达到75 tokens/秒,性能约为AMD Instinct MI355X的28倍。对于大型云服务提供商而言,总体拥有成本是决策的重要依据。结合公开的云平台定价数据进行分析,GB200 NVL72不仅在性能上占据绝对优势,单位token处理成本也仅为竞品方案的十五分之一,同时支持更高的交互响应速度。

尽管英伟达在MoE模型推理领域目前处于领先地位,但AMD的产品仍具备特定场景下的竞争力。其MI355X凭借大容量HBM3e内存,在处理密集型模型(Dense Models)时依然表现出较强的性能潜力。不过,报告指出,AMD尚未推出可对标NVL72级别的新一代机架级系统。展望未来,随着AMD Helios平台与英伟达Vera Rubin平台的逐步落地,双方在高端AI基础设施层面的竞争将更加深入和激烈。

展开全文
人赞过该文
内容纠错

相关电商优惠

评论

更多评论
还没有人评论~ 快来抢沙发吧~

读过此文的还读过

点击加载更多

内容相关产品

说点什么吧~ 0

发评论,赚金豆

收藏 0 分享
首页查报价问答论坛下载手机笔记本游戏硬件数码影音家用电器办公打印 更多

更多频道

频道导航
辅助工具