业界最大容量HBM问世!三星推出36GB新品满足AI应用更高需求
原创
2024-02-27 16:33 星期二
财联社 周子意
①韩国三星电子周二(2月27日)宣布新型高带宽存储器(HBM),容量为迄今为止业界最大;
②最新的产品名为HBM3E 12H,将HBM3E DRAM芯片堆叠至12层,容量达到36GB;
③该公司计划在今年上半年批量生产HBM3E 12H,并提高HBM的供应能力。

财联社2月27日讯(编辑 周子意)韩国半导体巨头三星电子周二(2月27日)表示,已开发出业界迄今为止容量最大的新型高带宽存储器(HBM)。

这家韩国芯片巨头在一份声明中写道,最新的HBM3E 12H产品将HBM3E DRAM芯片堆叠至12层,是迄今为止容量最大的HBM产品。

image

据悉,HBM(High Bandwidth Memory)就是通过使用先进的封装方法垂直堆叠多个动态随机存取存储芯片(DRAM),与GPU通过中介层互联封装在一起。

HBM3E 12H提供了高达每秒1280千兆字节(GB/s)的最高带宽、还提供了业界领先的36GB的容量。与8层堆叠的HBM3 8H相比,性能和容量两个方面都提高了50%以上

此外,HBM3E 12H采用了先进的热压非导电薄膜(TC NCF)技术,使得12层和8层堆叠产品的高度保持一致,以满足当前HBM封装的要求。也就意味着,在不增加其物理占用空间的情况下,这款产品拥有更强的处理能力

三星电子负责内存产品规划的常务副社长Yongcheol Bae表示,“业界对容量更大的HBM的要求越来越高,HBM3E 12H就是为了满足这一需求而设计的。”

Bae表示,“这是开发高堆栈HBM核心技术的一项举措,三星电子将引领人工智能时代的大容量HBM市场。”

量产计划

三星电子是全球最大的DRAM芯片制造商,此类芯片用于智能手机和电脑等消费设备。

而近年,随着生成式人工智能浪潮的火热,HBM也愈发受欢迎,因为它们在驱动生成式人工智能系统方面发挥了重要作用,使生成式人工智能模型能够更好地储存过去的对话细节和用户偏好。

三星电子称,已经开始向客户提供该芯片的样品,并计划在今年上半年批量生产HBM3E 12H产品

为了应对人工智能应用的指数级增长,HBM3E 12H有望成为未来需要更多内存的系统的最佳解决方案。其更高的性能和容量将使客户能够更灵活地管理资源,并降低数据中心的总成本。

三星电子还指出,今年将把HBM供应能力保持在行业最高水平,将产能提升至去年的2.5倍,以满足对人工智能芯片不断增长的需求。

激烈竞争

随着人工智能应用呈指数级增长,HBM3E 12H有望成为未来需要更多内存的系统的最佳解决方案。其更高的性能和容量将使客户能够更灵活地管理资源,并降低数据中心的总拥有成本。

大和证券执行董事SK Kim指出,“我认为这一消息将对三星的股价产生积极影响…该产品将帮助三星电子夺得领先地位。”

去年,三星在HBM3方面落后于SK海力士,之前英伟达的HBM也都是由SK海力士独家供应的。而如今美光、三星正在崛起,并加入这场竞争。

据去年9月的一份报道,三星与英伟达达成了一项协议,承诺将为其提供HBM芯片。

另外,美光科技昨日(2月26日)也宣布量产24GB 8L HBM3E ,将会用于NVIDIA H200 GPU,并且将于2024年第二季度开始发货。美光称,其HBM3E的功耗比竞争对手SK海力士和三星的同类产品低了30%。

收藏
96.62W
我要评论
图片
欢迎您发表有价值的评论,发布广告和不和谐的评论都将会被删除,您的账号将禁止评论。
发表评论
要闻
股市
关联话题
13.28W 人关注
1.48W 人关注
9346 人关注
6.01W 人关注