首页 创新 > 内容

三星错过了Nvidia最昂贵的AI卡但却以36GBHBM3E内存击败了美光

时间:2024-06-27 17:04:22 来源:
导读 三星表示,它已经开发出业界首款12堆栈HBM3E12HDRAM,超越了美光科技,并可能为Nvidia的下一代AI卡奠定基础。这家韩国科技巨头的HBM3E12H提...

三星表示,它已经开发出业界首款12堆栈HBM3E12HDRAM,超越了美光科技,并可能为Nvidia的下一代AI卡奠定基础。

这家韩国科技巨头的HBM3E12H提供高达1,280GB/s的带宽和业界领先的36GB容量,比8栈HBM38H提高了50%以上。

12层HBM3E12H采用先进的热压非导电薄膜(TCNCF),使12层产品能够满足当前HBM封装要求,同时保持与8层产品相同的高度规格。与三星的HBM38H产品相比,这些改进使其垂直密度提高了20%。

三星电子内存产品规划执行副总裁YongcheolBae表示:“业界的AI服务提供商对高容量HBM的需求越来越大,而我们全新的HBM3E12H产品正是为满足这一需求而设计的。这款全新内存解决方案是我们致力于开发高堆栈HBM核心技术并为高容量HBM市场提供技术领导地位的一部分。”

与此同时,美光已开始量产24GB8HHBM3E,将用于Nvidia最新的H200TensorCoreGPU。美光声称其HBM3E的功耗比竞争对手低30%,是生成式AI应用的理想选择。

尽管三星错过了Nvidia最昂贵的AI卡,但其36GBHBM3E12H内存在容量和带宽方面优于美光的24GB8HHBM3E。随着AI应用的不断增长,三星12HHBM3E将成为未来需要更多内存的系统的不二之选,例如Nvidia预计将于今年年底上市的B100BlackwellAI强机。

三星已经开始向客户提供36GBHBM3E12H样品,预计将于今年上半年开始量产。美光将于2024年第二季度开始出货24GB8HHBM3E。随着人工智能时代对高容量内存解决方案的需求持续激增,这两家科技巨头在HBM市场的竞争预计将加剧。

标签:
最新文章