今天凌晨,在 SIGGRAPH 2023 上,NVIDIA 创始人兼首席执行官黄仁勋 (Jensen Huang)宣布推出下一代 GH200 Grace Hopper 超级芯片。这标志着全球首次在芯片上搭载HBM3e。与当前一代产品相比,全新构建的双处理器系统的内存容量增加了 3.5 倍,带宽增加了三倍。NVIDIA没有透露HBM3e的供应商,但推测源自SK Hynix。

与目前使用的 HBM3 相比,新一代 HBM3e 速度提升了 50%,双处理器系统可提供高达 10TB/s 的带宽,这意味着每个堆栈可提供 5TB/s 的带宽。GH200 Grace Hopper Superchip是Hopper架构GPU和使用NVLink-C2C互连的Arm架构Grace CPU的融合。它拥有72个Arm v9架构CPU核心,GPU与H100计算卡一致,即16,896个FP32 CUDA核心。新打造的双处理器系统将配备 144 个 Arm v9 架构 CPU 内核和 282GB HBM3e,可提供 8 Petaflops 的 AI 计算性能。
NVIDIA表示,新平台旨在处理世界上最复杂的生成式人工智能工作负载,涵盖大型语言模型、推荐系统和矢量数据库,适合各种配置。NVIDIA 计划销售两个版本:一个版本包含两个可供客户集成到系统中的芯片,另一个版本包含由两个 Grace Hopper 组件设计的完整服务器系统。
此外,NVIDIA还将在Hopper架构的GH200计算卡中采用HBM3e,预计将于2024年第二季度上市,略晚于其竞争对手AMD的Instinct MI300X,后者通过HBM3提供5.2TB/s的带宽和192GB的容量。
相关文章
网友评论(共有 0 条评论)