智通財經APP獲悉,據TrendForce集邦諮詢最新HBM市場研究顯示,爲了更妥善且健全的供應鏈管理,NVIDIA(NVDA.US)也規劃加入更多的HBM供應商,其中三星的HBM3(24GB)預期於今年12月在英偉達完成驗證。而HBM3e進度依據時間軸排列如下表所示,美光(MU.US)已於今年7月底提供8hi(24GB)NVIDIA樣品、SK海力士已於今年8月中提供8hi(24GB)樣品、三星則於今年10月初提供8hi(24GB)樣品。
NVIDIA持續擴展AI芯片產品 在高端芯片市場擁最大優勢
展望2024年,觀察目前各AI芯片供應商的項目進度,NVIDIA 2023年的高端AI芯片(採用HBM)的既有產品爲A100/A800以及H100/H800;2024年則將把產品組合(Product Portfolio)更細緻化的分類。除了原上述型號外,還將再推出使用6顆HBM3e的H200以及8顆HBM3e的B100,並同步整合NVIDIA自家基於Arm架構的 CPU與GPU,推出GH200以及GB200。
相比同時期的AMD(AMD.US)與Intel(INTC.US)產品規劃,AMD2024年出貨主流爲MI300系列,採用HBM3,下一代MI350將採用HBM3e,預計2024下半年開始進行HBM驗證,實際看到較明顯的產品放量(Ramp Up)時間預估應爲2025年第一季。
以Intel Habana來看,2022下半年推出的Gaudi 2採用6顆HBM2e,2024年中預期在新型號Gaudi 3持續採取HBM2e,但將用量升級至8顆。因此,TrendForce集邦諮詢認爲,NVIDIA在HBM規格、產品準備度(Readiness)及時間軸上,可望持續以領先的GPU規格,在AI芯片競局取得領先。
HBM4或將轉向客製化 擺脫Commodity DRAM產品框架
除了HBM3與HBM3e外,據TrendForce集邦諮詢瞭解, HBM4預計規劃於2026年推出,目前包含NVIDIA以及其他CSP(雲端業者)在未來的產品應用上,規格和效能將更優化。受到規格更往高速發展帶動,將首次看到HBM最底層的Logic die(又名Base die)採用12nm製程wafer,該部分將由晶圓代工廠提供,使得單顆HBM產品需要結合晶圓代工廠與存儲器廠的合作。
再者,隨着客戶對運算效能要求的提升,HBM4在堆棧的層數上,除了現有的12hi (12層)外,也將再往16hi (16層)發展,更高層數也預估帶動新堆棧方式hybrid bonding的需求。HBM4 12hi產品將於2026年推出;而16hi產品則預計於2027年問世。
最後,TrendForce集邦諮詢也觀察到,針對HBM4,各買方也開始啓動客製化要求,除了HBM可能不再僅是排列在SoC主芯片旁邊,亦有部分討論轉向堆棧在SoC主芯片之上。雖然目前所有選項仍在討論可行性中,並尚未定案,但TrendForce集邦諮詢認爲,未來HBM產業將轉爲更客製化的角度發展,相比其他DRAM產品,在定價及設計上,更加擺脫Commodity DRAM的框架,呈現特定化的生產。
![集邦諮詢:各原廠預期2024年第一季於英偉達(NVDA.US)完成HBM3e產品驗證](https://d55-invdn-com.investing.com/content/pic8d32c112294b1555c530d640ea69aa91.jpg)