美光宣布开始量产HBM3E高带宽内存
发布时间:2024-02-27 14:18:00 阅读量:715
近日,美光科技宣布,已开始量产HBM3E,其24GB 8H HBM3E产品将供货给英伟达,并将应用于NVIDIA H200 Tensor Core GPU,该GPU将于2024年第二季度开始发货。之前英伟达的HBM由SK海力士独家供应,如今美光、三星都将加入。
资料显示,美光科技HBM3E内存基于1β 工艺,采用TSV封装、2.5D/3D堆叠,可提供1.2 TB/s及更高的性能。美光科技表示,与竞争对手的产品相比,其HBM3E产品有着以下三方面的优势:(1)卓越性能:美光HBM3E拥有超过9.2Gb/s的针脚速率、超过1.2 TB/s的内存带宽,可满足人工智能加速器、超级计算机和数据中心的苛刻需求。(2)出色能效:与竞品相比,美光HBM3E功耗降低了约 30%,在提供最大吞吐量的前提下将功耗降至最低,有效改善数据中心运营支出指标。(3)无缝扩展: 美光HBM3E目前可提供24GB容量,可帮助数据中心轻松扩展其AI应用,无论是训练大规模神经网络还是加速推理任务都能提供必要的内存带宽。
美光科技执行副总裁兼首席商务官Sumit Sadana表示:“美光科技凭借这一HBM3E里程碑实现了三连胜:上市时间领先、一流的行业性能以及差异化的能效概况。”“人工智能工作负载严重依赖内存带宽和容量,美光科技处于有利位置,可以通过我们业界领先的HBM3E和HBM4路线图以及我们用于人工智能应用的完整DRAM和NAND解决方案组合来支持未来人工智能的显著增长。”
美光科技此前曾表示,预计2024财年HBM收入将达到“数亿”美元,并在2025年继续增长。Moor Insights & Strategy分析师Anshel Sag表示:“我认为这对美光科技来说是一个巨大的机会,特别是因为HBM在人工智能应用方面越来越受欢迎。”并补充称:“由于SK海力士2024年的库存已经售罄,有另一个供应市场的供应商可以帮助AMD、英特尔或英伟达等芯片制造商扩大GPU生产规模。”
HBM产品问世至今,HBM技术已经发展至第四代,分别为HBM、HBM2、HBM2E、HBM3,第五代HBM3E目前已量产,HBM被认为是人工智能时代的新一代DRAM。
标签: 美光
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,感谢您的关注!