Nvidia 周二 发布了 其下一代 Grace Hopper Superchip 平台的改进版本,该平台配备 HBM3e 内存,用于人工智能和高性能计算。新版本的 GH200 Grace Hopper 采用相同的 Grace CPU 和 GH100 Hopper 计算 GPU,但配备了容量和带宽更高的 HBM3e 内存。
全新 GH200 Grace Hopper Superchip 基于 72 核 Grace CPU,配备 480 GB ECC LPDDR5X 内存以及 GH100 计算 GPU,搭配 141 GB HBM3E 内存,采用 6 个 24 GB 堆栈,使用 6,144位存储器接口。虽然 Nvidia 物理安装了 144 GB 内存,但只有 141 GB 可用才能获得更高的产量。
Nvidia 目前的 GH200 Grace Hopper Superchip 配备 96 GB HBM3 内存,提供低于 4 TB/s 的带宽。相比之下,新型号的内存容量增加了约 50%,带宽增加了 25% 以上。如此巨大的改进使新平台能够运行比原始版本更大的人工智能模型,并提供切实的性能改进(这对于训练尤其重要)。
据Nvidia称,带有HBM3的Nvidia GH200 Grace Hopper平台 目前正在生产中 ,并将于下个月开始商用。相比之下,采用 HBM3e 的 GH200 Grace Hopper 平台现已提供样品,预计将于 2024 年第二季度上市。Nvidia 强调,新的 GH200 Grace Hopper 使用与原始版本相同的 Grace CPU 和 GH100 GPU 芯片,因此公司不需要进行任何新的修订或步骤。
Nvidia 表示,带有 HBM3 的原始 GH200 和带有 HBM3E 的改进版 GH200 将在市场上共存,这意味着后者将因更先进的内存实现更高的性能而以溢价出售。
英伟达首席执行官黄仁勋表示:“为了满足生成式人工智能不断增长的需求,数据中心需要具有特殊需求的加速计算平台。” “新的 GH200 Grace Hopper Superchip 平台提供了卓越的内存技术和带宽以提高吞吐量、连接 GPU 以不妥协地聚合性能的能力以及可以在整个数据中心轻松部署的服务器设计。”
Nvidia 的下一代 Grace Hopper Superchip 平台采用 HBM3e,与 Nvidia 的 MGX 服务器规范完全兼容,因此可以与现有服务器设计直接兼容。