智通財經APP獲悉,中信建投發佈研究報告稱,HBM是限制當前算力卡性能的關鍵因素,海力士、三星、美光正加大研發投入和資本開支,大力擴產並快速迭代HBM,預計2024年HBM3e 24GB/36GB版本將量產/發佈,內存性能進一步提高。HBM供需將持續緊俏,市場規模高速增長。通過分析生產工藝(TSV、鍵合等)和技術演進方向(先進製程、疊層),封裝測試、前道和後道先進封裝的設備和材料將是HBM主要受益方向。
▍中信建投主要觀點如下:
HBM是當前算力的內存瓶頸。存儲性能是當下制約高性能計算的關鍵因素,從存儲器到處理器,數據搬運會面臨帶寬和功耗的問題。
爲解決傳統DRAM帶寬較低的問題,本質上需要對單I/O數據速率和位寬進行提升。HBM由於採用了TSV、微凸塊等技術,DRAM裸片、計算核心間實現了較短的信號傳輸路徑、較高的I/O數據速率、高位寬和較低的I/O電壓,因此具備高帶寬、高存儲密度、低功耗等優勢。即便如此,當前HBM的性能仍然跟不上算力卡的需求。
三大原廠持續加大研發投入,HBM性能倍數級提升。
隨着技術的迭代,HBM的層數、容量、帶寬指標不斷升級,目前最先進的HBM3e版本,理論上可實現16層堆疊、64GB容量和1.2TB/s的帶寬,分別爲初代HBM的2倍、9.6倍和4倍。從Trendforce公佈的HBM Roadmap來看,2024年上半年,海力士、三星、美光均會推出24GB容量的HBM3e,均爲8層堆疊。2024年下半年,三家廠商將推出36GB版本的HBM3e,或爲12層堆疊。此外,HBM4有望於2026年推出。
HBM製造集成前道工藝與先進封裝,TSV、EMC、鍵合工藝是關鍵。
HBM製造的關鍵在於TSV DRAM,以及每層TSV DRAM之間的連接方式。目前主流的HBM製造工藝是TSV+Micro bumping+TCB,例如三星的TC-NCF工藝,而SK海力士則採用改進的MR-MUF工藝,在鍵合應力、散熱性能、堆疊層數方面更有優勢。目前的TCB工藝可支撐最多16層的HBM生產,隨着HBM堆疊層數增加,以及HBM對速率、散熱等性能要求的提升,HBM4開始可能引入混合鍵合工藝,對應的,TSV、GMC/LMC的要求也將提高。
AI刺激服務器存儲容量擴充,HBM需求強勁。
隨着雲計算廠商將更多資本開支投入AI基礎設施,AI服務器ODM對2024年展望樂觀,預計2024年AI服務器出貨量繼續大幅增長。相較於一般服務器而言,AI服務器多增加GPGPU的使用,以NVIDIA A100/H100 80GB配置8張計算,HBM用量約爲640GB,超越常規服務器的內存條容量,H200、B100等算力卡將搭載更高容量、更高速率HBM。
測算隨着算力卡單卡HBM容量提升、算力卡出貨量提升、技術迭代帶來單GB HBM單價提升,2023年HBM市場規模爲40億美元,預計2024年增長至148億美元,2026年增長至242億美元,2023~2026年CAGR爲82%。
目前HBM供應鏈以海外廠商爲主,部分國內廠商打入了海外存儲/HBM供應鏈。
國產HBM正處於0到1的突破期,HBM供應主要爲韓系、美系廠商,國內能獲得的HBM資源較少。隨着國產算力卡需求快速增長,對於算力卡性能至關重要的HBM也有強烈的供應保障訴求和國產化訴求。建議關注:封測、設備、材料等環節。