NVIDIA今日宣布推出首款面向AI基础设施和高性能计算的基于Arm Neoverse的数据中心专属CPU,其可提供最高的性能,是当今领先服务器芯片内存带宽和能效的两倍。
Grace Superchip
NVIDIA Grace CPU超级芯片由两个CPU芯片组成,它们之间通过NVLink-C2C互连在一起。NVLink-C2C是一种新型的高速、低延迟、芯片到芯片的互连技术。
Grace CPU超级芯片是去年NVIDIA发布的首款由CPU-GPU集成的“Grace Hopper超级芯片”的模块,它将与基于NVIDIA Hopper架构的GPU一同应用于大型HPC和AI应用。这两款超级芯片采用相同的底层CPU架构及NVLink-C2C互连。
NVIDIA创始人兼首席执行官黄仁勋表示: “一种新型的数据中心已经出现,它就是能对海量数据进行处理和提炼以实现智能的AI工厂。Grace CPU超级芯片能够在一个芯片中提供最高的性能、内存带宽以及NVIDIA软件平台,将作为‘全球AI基础设施的CPU’ 大放异彩。”
NVIDIA CPU平台
Grace CPU超级芯片专为提供最高的性能而打造,能够在单个插座(socket)中容纳144个Arm核心,在SPECrate®2017_int_base基准测试中的模拟性能达到740分。根据NVIDIA实验室使用同类编译器估算,这一结果较当前DGX A100搭载的双CPU相比高1.5倍以上。
Grace CPU超级芯片还提供业界领先的能效和内存带宽,其依托带有纠错码的LPDDR5x内存组成的创新的内存子系统,可实现速度和功耗的最佳平衡。LPDDR5x内存子系统提供两倍于传统DDR5设计的带宽,可达到每秒1TB ,同时功耗也大幅降低 ,CPU加内存整体功耗仅500瓦。
Grace CPU超级芯片基于最新的数据中心架构Arm v9,具备最高的单线程核心性能,并支持Arm新一代矢量扩展,其将为诸多应用带来直接收益。
Grace CPU超级芯片可以运行所有的NVIDIA计算软件栈,包括 NVIDIA RTX、NVIDIA HPC、NVIDIA AI和Omniverse。Grace CPU超级芯片结合NVIDIA ConnectX-7 网卡,能够灵活地配置到服务器中 —— 或作为独立的纯CPU系统,或作为GPU加速服务器,搭载一块、两块、四块或八块基于
Hopper的GPU ,从而使客户通过只维护一套软件栈就能针对自身特定的工作负载做好性能优化。
专为AI、HPC、云计算和超大规模应用而设计
凭借最高的性能、内存带宽、能效及可配置性,Grace CPU超级芯片在要求最为严苛的高性能计算、AI、数据分析、科学计算和超大规模计算应用方面将会脱颖而出。
Grace CPU超级芯片的144个核心和1TB/s的内存带宽将为基于CPU的高性能计算应用提供前所未有的性能。HPC应用为计算密集型,需要最高性能的核心、最高的内存带宽以及最合适的每核心内存容量来加速产出。
NVIDIA正在携手HPC 、超级计算、超大规模和云计算领域的领先客户,围绕Grace CPU超级芯片展开合作。Grace CPU超级芯片和Grace Hopper超级芯片预计将于2023年上半年开始供货。
评论