财经新闻网消息:
人工智能的大规模应用带来了HBM(高带宽存储器)。
科技巨头排队收购
据科技媒体报道,继之后,全球多家科技巨头都在竞购SK海力士的第五代高带宽内存HBM3E。 据半导体行业内部人士透露,各大科技巨头已经向SK海力士索取HBM3E样品,其中包括AMD、微软和亚马逊。
AMD最近公布了其下一代GPU,并表示将从SK海力士和三星电子获得HBM3供应。 除了英伟达和AMD之外,亚马逊和微软是云服务领域的两大巨头。 他们此前就引入了生成式人工智能技术,并大幅加大了在AI领域的投入。
报道称,SK海力士正忙于回应客户对HBM3E样品的大量请求,但满足的首批样品数量要求却非常紧迫。
SK海力士于2021年10月宣布成功开发出容量为16GB的HBM3 DRAM,并于2022年6月上旬宣布量产。HBM3E是HBM3的下一代产品,SK海力士是目前唯一一家在该领域取得领先地位的公司。可以量产HBM3芯片的世界。
具有 Fire HBM 的 AI 服务器
HBM是一种高带宽内存,是一种基于3D堆叠工艺的DRAM内存芯片,具有更高带宽、更多I/O、更低功耗、更小尺寸等优点。
HBM突破了内存容量和带宽的瓶颈,可以为GPU提供更快的并行数据处理速度,打破“内存墙”对算力提升的束缚。 它被认为是GPU存储单元的理想解决方案。 AI服务器对带宽要求较高,HBM基本是AI服务器的标配。 超高的带宽使HBM成为高性能GPU的核心组件。
今年5月,英伟达宣布推出大内存AI超级计算机DGX GH200,该计算机集成了多达256颗GH200超级芯片,是DGX A100的32倍。 该机构推测,在相同算力下,HBM存储的实际增幅为15.6倍。
在DRAM整体下滑的情况下,HBM却逆市增长。 据媒体报道,2023年开始后,三星和SK海力士两大存储厂商的HBM订单将迅速增加,HBM3 DRAM的价格将上涨5倍。 为了应对人工智能半导体需求的增加,有消息称SK海力士将投资额外的高带宽存储器(HBM)生产线,目标是将HBM产能翻倍。
6月28日,集邦咨询发布研究报告称,目前搭载HBM芯片的高端AI服务器GPU已成为主流。 预计2023年全球HBM需求将增长近60%,达到2.9亿GB,2024年将再增长30%。
预测,目前 A100、H100、AMD MI300以及、AWS等大型云服务商自主研发的ASIC AI服务器需求增长较为强劲。 预计AI服务器出货量(包括GPU、FPGA、ASIC等)为120万台,年增长率近38%。 AI芯片出货量同时看涨,预计今年将增长50%。
HBM未来市场规模超20亿美元
中金公司表示,随着模型进一步复杂化,推理侧使用A100/H100等中高端GPU已是大势所趋,HBM渗透率有望快速提升。 据估计,到2025年,HBM整体市场规模预计将达到20亿美元以上。
据证券时报·数据宝统计,A股公司中,HBM产业链主要包括雅客科技、拓晶科技、中微、香农新创、华海诚科等。
雅科科技旗下UP是韩国存储芯片龙头企业SK海力士的核心供应商,为海力士供应HBM前驱体。 国盛证券表示,随着HBM堆叠DRAM晶粒数量逐渐增加至8层、12层,HBM的DRAM材料用量将呈指数级增长。 与此同时,前驱体的单位价值也将呈指数级增长,前驱体有望迎来新的发展机遇。
ALD沉积(单原子层沉积)是HBM工艺中不可或缺的。 拓晶科技是中国ALD设备的主要供应商之一。 公司PEALD产品用于沉积SiO2、SiN等介质薄膜,客户端验证顺利。
TSV技术( Via )是HBM的核心技术之一,中微是TSV设备的主要供应商。 硅通孔技术是一种连接硅晶圆两面并与硅衬底及其他过孔绝缘的电互连结构。 它可以穿过硅衬底,实现硅片内的垂直电互连。 是实现2.5D和3D先进封装的关键技术。 一。
香农新创子公司联合创泰是SK海力士的代理商,从SK海力士采购的产品为数据存储设备。 公司表示,AI算力需求的增加将有助于增加高性能存储芯片的销量,并对公司的营业额和利润产生积极影响。
华海诚科的颗粒状环氧模塑料用于HBM的封装。 该公司表示,HBM使用的材料已经通过了部分客户的认证。
联瑞新材表示,由于HBM封装高度增加以及散热需求较大,需要在粒状封装材料(GMC)中添加球形硅和球形铝。 公司的部分客户是全球知名的GMC供应商。
国芯科技表示,目前正在研究规划多HBM存储器的2.5D芯片封装技术,并积极推进该技术的研发和应用。
长电科技表示,旗下子公司星科金朋拥有20多年高性能存储芯片成品量产经验,在高带宽存储后端制造领域与国内外存储产品厂商有着广泛的合作产品。
免责声明 ① 本网所刊登文章均来自网络转载;文章观点不代表本网立场,其真实性由作者或稿源方负责 ② 如果您对稿件和图片等有版权及其他争议,请及时与我们联系,我们将核实情况后进行相关删除 ③ 联系邮箱:215858170@qq.com