Nvidia 将于 2023 年销售 550,000 个用于 AI 的 H100 GPU:报告

要闻 编辑:
导读 生成式人工智能热潮正在推动用于人工智能(AI)和高性能计算(HPC)的服务器的销售,数十家公司将从中受益。但一家公司可能会比其他公司受益更...

生成式人工智能热潮正在推动用于人工智能(AI)和高性能计算(HPC)的服务器的销售,数十家公司将从中受益。但一家公司可能会比其他公司受益更多。据英国《金融时报》报道,Nvidia 预计到 2023 年将售出超过 50 万个高端H100计算 GPU,价值数百亿美元。据多位与英伟达和台积电有关的内部人士向英国《金融时报》表示,英伟达计划于 2023 年在全球范围内出货约 55 万个最新的 H100 计算 GPU,其中大部分销往美国科技公司。英伟达选择不对此事发表任何评论,考虑到联邦贸易委员会的规则,这是可以理解的。

虽然我们不知道所售 GPU 的精确组合,但每个 Nvidia H100 80GB HBM2E 计算 GPU 附加卡(14,592 个 CUDA 核心、26 FP TFLOPS、1,513 FP16 TFLOPS)在美国的零售价约为 30,000美元。该公司性能最高的基于 Hopper 架构的部分。事实上,这是最便宜的,至少目前是这样。而在中国,一张这样的卡售价高达7 万美元。

Nvidia 的顶级 H100 产品包括 H100 SXM 80GB HBM3(16,896 个 CUDA 核心、34 FP TFLOPS、1,979 FP16 TFLOPS)和 H100 NVL 188GBHBM3 双卡解决方案。这些零件要么直接出售给富士康和广达等服务器制造商,要么在英伟达直接销售的服务器内部供应。此外,Nvidia 即将开始发售其 GH200 Grace Hopper 平台,该平台由 72 核 Grace 处理器和 H100 80GB HBM3E 计算 GPU 组成。

Nvidia 没有公布其 H100 SXM、H100 NVL 和 GH200 Grace Hopper 产品的价格,因为它们取决于 Nvidia 与特定客户之间的数量和业务关系。与此同时,即使 Nvidia 每款基于 H100 的产品售价为 3 万美元,仅在最新一代计算 GPU 上,今年的销售额仍将达到 165 亿美元。但该公司不仅仅销售 H100 系列计算 GPU。

有些公司仍在使用 Nvidia 的上一代 A100 计算 GPU 来增强现有部署,而无需对其软件和硬件进行任何更改。还有中国专用的A800和H800型号。

标签:
免责声明:本文由用户上传,如有侵权请联系删除!