TrendForce报告称,下一代 HBM3 和 HBM3e 内存将主导 AI GPU 行业,尤其是在各公司对采用 DRAM 的兴趣大幅增加之后。
NVIDIA 和 AMD 未来的 AI GPU 将利用更快的 HBM3 内存设计的功能
现有的 NVIDIA A100 和 H100 AI GPU 均采用 HBM2e 和 HBM3 内存,分别于 2018 年和 2020 年推出。美光、SK 海力士和三星等多家制造商正在快速开发设施,用于批量生产新型、更快的HBM3内存,用不了多久它就会成为新的标杆。
关于 HBM3 内存,有一个很多人不知道的通用细节。正如 TrendForce 所强调的,HBM3 将会有不同的变化。据报道,低端 HBM3 的运行速度为 5.6 至 6.4 Gbps,而更高版本的运行速度则超过 8 Gbps。更高端的变体将被称为“ HBM3P、HBM3A、HBM3+和 HBM3 Gen2”。
我们最近报道称,HBM 行业的市场份额必将大幅上升,其中 SK 海力士处于领先地位。预计未来的AI GPU,例如AMD MI300 Instinct GPU和 NVIDIA的H100,将采用下一代HBM3工艺,SK Hynix在这方面占据上风,因为它已经进入制造阶段,并已收到来自英伟达本身。