英伟达超算内存容量扩大500倍!“算力推动存力”逻辑兑现?
原创
2023-05-30 13:03 星期二
科创板日报 邱思雨
①AI推动下,一方面DRAM技术迭代以满足需求,另一方面HBM提供新的解决方案;
②DRAM大厂南亚科总经理李培瑛指出,ChatGPT兴起带来的AI应用,短时间是否会造成(存储)产业变化仍有待观察。但若未来AI需求成长呈现百花齐放,将带给产业很多的成长机会。

《科创板日报》5月30日讯(编辑 邱思雨) 昨日,英伟达创始人黄仁勋在COMPUTEX 2023现场发布了重磅产品超级计算机DGX GH200。

据介绍,DGX GH200共链接256个Grace Hopper超级芯片,能够提供1exaflop的性能、具有144TB的共享内存,相较2020年推出的上一代DGX A100,内存容量扩大了近500倍。

台湾经济日报今日报道指出,DGX GH200系统将推动内存需求大爆发,DRAM龙头南亚科及爱普、群联等内存相关厂商将显著受益。

市调机构集邦咨询近期也发布报告表示,AI服务器可望带动内存需求成长,以企业级SSD来看,AI服务器追求速度更高,要求优先往DRAM或HBM满足。此外,高阶深度学习AI GPU的规格也刺激HBM产品更迭,2023下半年伴随NVIDIA H100与AMD MI300的搭载,三大原厂(SK海力士、三星、美光科技)也已规划相对应规格HBM3的量产。

此外,业界认为,虽然当前AI服务器内存以HBM为主,但随着整体出货量持续增长,以及未来AI模型逐渐复杂化趋势下,也会刺激服务器DRAM、固态硬盘(SSD)用量激增,存储器相关厂商均有望受益。

算力推动存力

AI引爆的庞大算力需求推动AI服务器出货量高增,同时也对AI服务器的存力提出更高的需求,算力推动存力趋势凸显。中金公司测算,2023-2025年,仅AI需求就将会为存储带来80亿美元增量市场。

上文所述的HBM有望成为主流方案。HBM(high bandwidth memory)指高带宽内存。通过TSV堆栈的方式,HBM能达到更高的I/O数量,显存位宽能够达到1,024位,显著提升,此外还具有更低功耗、更小外形等优势。

2023年以来,三星、SK海力士两家存储大厂HBM订单快速增加,价格也水涨船高。集邦咨询报告显示,2023-2025年HBM市场CAGR有望成长至40-45%以上。多家机构亦指出,ChatGPT催生AI存力新需求,HBM芯片或将量价齐升。

DRAM也是AI时代的“宠儿”。华西证券在近期研报中指出,AI是DRAM行业增长引擎。在AI的大时代下,DRAM有望成为继GPU后,另外一重要算力核心。

在DRAM领域,CXL(Compute Express Link,计算快速链接)技术备受市场关注。CXL是一种全新的互联技术标准,其带来的DRAM池化技术可以大大节约数据中心的建设成本,同时也将大大带动DRAM的用量。机构普遍认为,节约下来的成本将会主要用于对DRAM的采购,TB级别的DRAM将会在更多通用性服务器中广泛使用。

总体来说,随着AI模型的运算数据量发生指数式增长,对更多的内存、更高的带宽提出需求。一方面DRAM技术迭代以满足需求,另一方面高带宽存储器(HBM)提供新的解决方案。

不过需要注意的是,DRAM大厂南亚科总经理李培瑛在相关报道中指出,ChatGPT兴起带来的AI应用,短时间是否会造成(存储)产业变化仍有待观察。但若未来AI需求成长呈现百花齐放,将带给产业很多的成长机会。

收藏
101.59W
我要评论
欢迎您发表有价值的评论,发布广告和不和谐的评论都将会被删除,您的账号将禁止评论。
发表评论
要闻
股市
关联话题
7561 人关注
1.12W 人关注
8.22W 人关注
3.94W 人关注
2.28W 人关注
1.26W 人关注
9096 人关注