英伟达 H200 AI 芯片或采用美光宣布量产 HBM3e 内存 - UWB芯片实验室

英伟达 H200 AI 芯片或采用美光宣布量产 HBM3e 内存

美光科技宣布开始批量生产 HBM3E 高带宽内存,其 24GB 8H HBM3E 产品将供货给英伟达,并将应用于 NVIDIA H200 Tensor Core GPU(第二季度开始发货)。

美光 HBM3e 内存是什么?

美光 HBM3e 内存基于 1β 工艺,采用 TSV 封装、2.5D / 3D 堆叠,可提供 1.2 TB / s 及更高的性能。

美光表示,与竞争对手的产品相比,其 HBM3E 解决方案有着以下三方面的优势:

  • 卓越性能:美光 HBM3E 拥有超过 9.2 Gb / s 的针脚速率、超过 1.2 TB / s 的内存带宽,可满足人工智能加速器、超级计算机和数据中心的苛刻需求。
  • 出色能效:与竞品相比,美光 HBM3E 功耗降低了约 30%,在提供最大吞吐量的前提下将功耗降至最低,有效改善数据中心运营支出指标。
  • 无缝扩展: 美光 HBM3E 目前可提供 24GB 容量,可帮助数据中心轻松扩展其 AI 应用。无论是训练大规模神经网络还是加速推理任务都能提供必要的内存带宽。

美光科技执行副总裁兼首席商务官 Sumit Sadana 表示:“美光科技凭借这一 HBM3E 里程碑实现了三连胜:上市时间领先、一流的行业性能以及差异化的能效概况。”“人工智能工作负载严重依赖内存带宽和容量,美光处于有利位置,可以通过我们业界领先的 HBM3E 和 HBM4 路线图以及我们用于人工智能应用的完整 DRAM 和 NAND 解决方案组合来支持未来人工智能的显著增长。”。

UWBLAB延伸阅读

HBM 是美光科技最赚钱的产品之一,部分原因在于其构造所涉及的技术复杂性。该公司此前曾表示,预计 2024 财年 HBM 收入将达到“数亿”美元,并在 2025 年继续增长。

美光还宣布将会在 3 月 18 日召开的全球人工智能大会上分享更多有关其行业领先的人工智能内存产品组合和路线图的信息。

欢迎投稿至UWB芯片实验室uwblab.cn

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注