通过与 Jira 对比,让您更全面了解 PingCode

  • 首页
  • 需求与产品管理
  • 项目管理
  • 测试与缺陷管理
  • 知识管理
  • 效能度量
        • 更多产品

          客户为中心的产品管理工具

          专业的软件研发项目管理工具

          简单易用的团队知识库管理

          可量化的研发效能度量工具

          测试用例维护与计划执行

          以团队为中心的协作沟通

          研发工作流自动化工具

          账号认证与安全管理工具

          Why PingCode
          为什么选择 PingCode ?

          6000+企业信赖之选,为研发团队降本增效

        • 行业解决方案
          先进制造(即将上线)
        • 解决方案1
        • 解决方案2
  • Jira替代方案

25人以下免费

目录

HBM“这边风景独好”,产能和性能呈“双增长”态势

过去近两年来,受消费电子市场需求疲软等因素影响,存储芯片产业游进入库存过剩、订单减少、价格暴跌的“寒冬”。三星、美光、SK海力士、铠侠等存储芯片大厂纷纷减产、去库存,但市场行情是否筑底众说纷纭,整体产业回暖的迹象亦不明显。

然而,在生成式AI对算力需求的带动下,2023年初以来高带宽内存(HBM)在整个存储芯片产业中可谓“这边风景独好”。目前,三星、SK海力士、美光等存储芯片大厂均在布局与抢占这一细分市场利好。

与此同时,随着AI对内存速率提出更高的要求,HBM技术创新仍将持续不断演进。因此,相对整个存储芯片产业而言,HBM这一细分领域出现了产能和性能双提升的增长态势。

HBM(High Bandwidth Memory)是一款新型的CPU/GPU内存芯片(即“RAM”),其实就是将很多个DDR芯片堆叠在一起后和GPU封装在一起,实现大容量、高位宽的DDR组合阵列,可被广泛应用于高性能计算、人工智能、图形处理和数据中心等领域。

整体来看,HBM具有超越一般芯片集成的RAM的特殊优势:一是高速、高带宽的特性使HBM非常适合用于GPU显存和HPC高性能计算、AI计算;二是由于采用了TSV和微凸块技术,HBM具备更好的内存功耗能效特性,相对于GDDR5存储器,HBM2的单引脚I/O带宽功耗比数值降低42%,更低的热负荷降低了冷却成本;三是在物理空间日益受限的数据中心环境中,HBM紧凑的体系结构也是其独特的优势。

今年初以来,ChatGPT突然爆火,带动了AI大模型的快速增长,使得具备高带宽和低功耗特性的HBM成为处理大规模数据和复杂计算任务的理想选择。据悉,2023年开年后,三星、SK海力士两家存储大厂HBM订单快速增加,价格也水涨船高,HBM3规格DRAM价格甚至上涨5倍。

过去数月里,HBM乘AI东风,市场关注度大幅上升。据悉,三星电子、SK海力士等韩国本土存储半导体企业正在推动HBM专用线的扩张。两家公司计划在2024年年底前投资超过2万亿韩元,使HBM生产线目前的产能增加一倍以上。SK海力士计划利用利川现有HBM生产基地的清州工厂的闲置空间。三星电子正在考虑扩大位于忠清南道天安市的HBM核心生产线。

另一大存储大厂美光也很早就嗅到AI应用商机,于2019年在中国台湾成立HBM部门。美光甚至表示,看好2022年至2025年HBM市场年复合成长率超50%。

当前,HBM市场呈现三足鼎立格局。TrendForce研究显示,2022年三大原厂HBM市占率分别为SK海力士占50%、三星约40%、美光约占10%。

从发展进程来看,2023-2024年将是AI建设爆发期,大量需求集中在AI训练芯片上,势必推升HBM使用量。预计2023年,HBM即便在原厂扩大产能的情况下,仍无法完全满足客户需求。从各原厂规划看,预计2024年HBM供给位元量将年增长105%。另据semiconductor-digest预测,到2031年,全球高带宽存储器市场预计将从2022年的2.93亿美元增长到34.34亿美元,在2023-2031年的预测期内复合年增长率为31.3%。

在AI大模型热潮影响下,科技大厂接连布局AI大模型,掀起了AI大模型竞争之战,可以预见未来算力需求仍将大幅增长。目前,NVIDIA、AMD、Intel等高端AI芯片大多选择搭载HBM。而作为加速计算领导者,英伟达更是受益于ChatGPT引发AI大模型需求增长,今年以来股价累计涨幅已超过245%,目前(9月5日)市值已站上1.2万亿美元。

当前,在核心GPU(图像处理器)加速计算芯片供不应求的情形下,英伟达在加大GPU供应量的同时,也加速推出新一代算力更快的芯片——超级芯片GH200,以持续巩固AI大模型核心算力芯片供应商地位。

中信证券分析认为,目前英伟达数据中心加速卡销量仍主要以高端的A100/H100系列卡为主,其中台积电CoWoS环节产能为主要约束,考虑到封测设备的交货周期等因素,预计台积电CoWoS产能实质性改善至少应在2024Q2左右。

当然,除了CoWoS产能不足之外,HBM也是供不应求。目前,SK海力士是HBM3领域的全球领导者,迄今为止也是英伟达唯一为AI加速器提供HBM的供应商。有专家认为,HBM3是需高带宽的人工智能服务的理想选择。

然而,SK海力士一家远远难以满足英伟达对HBM的需求。据悉,英伟达计划到2024年出货最高200万颗H100。此前HBM供应商主要是SK海力士,但是产能也有限,如果英伟达不引入其他HBM供应商,那么要达成这一目标将变得相当困难。这势必迫使英伟达寻找更多的HBM供应商进行合作。

9月5日消息,据韩国媒体报导,三星电子已获得英伟达(NVIDIA)的高带宽内存(HBM)订单。据悉,三星的HBM已通过NVIDIA的第四次测试,也是最后一次品质测试。随后,两家公司已同意签订供应协议。根据该协议,双方的供货最早可能在10月启动。现在NVIDIA已经拥有SK Hynix和三星作为其HBM供应商,这使得AI GPU的产量能够提升。

花旗集团分析师也曾在一份报告中写道,三星电子将从第四季度开始供应HBM3新一代内存,经过优化配合人工智能加速器使用。未来,随着三星的加入,英伟达将在很大程度上缓解GPU供应不足的压力。

未来数年,HBM的发展“钱景”被存储大厂广受看好。而在当前高性能计算应用对内存速率提出更高要求的背景下,HBM技术将继续进行改进和创新。

从技术发展趋势看,HBM促使DRAM从传统2D加速走向立体3D,充分利用空间、缩小面积,契合半导体行业小型化、集成化的发展趋势。具体来看,增加堆叠层数、提高数据传输速度和密度,以及降低功耗和成本等方面的改进,将推动HBM技术的进一步发展。

目前,HBM内部的DRAM堆叠属于3D封装,而HBM与AI芯片的其他部分合封于Interposer上属于2.5D封装,是典型的Chiplet应用。

过去十年里,高带宽和高密度的HBM解决方案不断涌现,使得数据传输速度更快、容量更大,同时降低功耗和占用空间。据悉,HBM发展至今第四代性能不断突破。自2014年首款硅通孔HBM产品问世至今,HBM技术已经发展至第四代,分别是:HBM(第一代)、HBM2(第二代)、HBM2E(第三代)、HBM3(第四代),HBM芯片容量从1GB升级至24GB,带宽从128GB/s提升至819GB/s,数据传输速率也从1Gbps提高至6.4Gbps。

为了抢占未来HBM市场,目前各大存储大厂也在不断提升HBM技术性能。近日,美光中国台湾地区董事长卢东晖就表示,美光有多达65%的DRAM产品在中国台湾生产,继日本厂于2022年10月开始量产1β(1-beta)制程技术后,中国台湾现在也开始量产1-beta制程。同时,台日团队还研发新一代的1-gamma制程,是美光第1代采用极紫外光(EUV)的制程技术,将在2025年上半年先在台中厂量产。

而三星早在2022年10月召开的Samsung Foundry Forum 2022活动上,就对外公布了DRAM技术路线图。按照规划,三星将于2023年进入1bnm工艺阶段,芯片容量将达到24Gb(3GB)- 32Gb(4GB),原生速度将在6.4-7.2Gbp。

今年5月,三星已宣布量产12纳米级16Gb DDR5 DRAM,随后9月宣布采用12纳米(nm)级工艺技术,开发出其容量最大的32Gb DDR5 DRAM,全新12纳米级32Gb DDR5 DRAM计划于今年年底开始量产。

尽管各大储存厂商正不断加码HBM,但其技术创新仍需克服两大主要问题:一是HBM需要较高的工艺,进而大幅度提升了成本;二是大量DRAM堆叠,和GPU封装在一起,产生大量的热,如何散热是极大的挑战。

整体来看,存储产业出现了分化的市场行情:一方面在多类消费电子需求疲弱背景下,多家NAND Flash厂商仍在减产,另一方面因AI服务器需求增加,与AI场景高算力需求匹配的HBM需求上升。然而,AI浪潮催化下的DRAM行情虽有好转迹象,但整个存储芯片产业似乎仍待实际需求支撑。

文章来自:https://www.eet-china.com/

相关文章