💎 查看市場今日表現最穩健公司立即開始

集邦咨詢:預期HBM3與HBM3e將成2024年HBM市場主流 兩大韓廠預計明年Q1送樣HBM3e

發布 2023-8-1 下午01:46
© Reuters.  集邦咨詢:預期HBM3與HBM3e將成2024年HBM市場主流 兩大韓廠預計明年Q1送樣HBM3e

智通財經APP獲悉,根據TrendForce集邦咨詢調查顯示,2023年HBM(High Bandwidth Memory)市場主流爲HBM2e,包含NVIDIA A100/A800、AMD MI200以及多數CSPs自研加速芯片皆以此規格設計。同時,爲順應AI加速器芯片需求演進,各原廠計劃于2024年推出新産品HBM3e,預期HBM3與HBM3e將成爲明年市場主流。

HBM各世代差異,主要以速度做細分。除了市場已知的HBM2e外,在進入HBM3世代時,産業出現較爲混亂的名稱。TrendForce集邦咨詢特別表示,目前市場所稱的HBM3實際需細分爲兩種速度討論,其一,5.6-6.4Gbps的HBM3;其二,8Gbps的HBM3e,別名HBM3P、HBM3A、HBM3+、HBM3 Gen2皆屬此類。

目前叁大原廠HBM發展進度如下,兩大韓廠SK海力士(SK hynix)、叁星(Samsung)先從HBM3開發,代表産品爲NVIDIA H100/H800以及AMD的MI300系列,兩大韓廠預計于2024年第一季送樣HBM3e;美系原廠美光(Micron)則選擇跳過HBM3,直接開發HBM3e。

HBM3e將由24Gb mono die堆棧,在8層(8Hi)的基礎下,單顆HBM3e容量將一口氣提升至24GB,此將導入在2025年NVIDIA推出的GB100上,故叁大原廠預計要在2024年第一季推出HBM3e樣品,以期在明年下半年進入量産。

CSP陸續啓動自研AI加速芯片計劃,欲擺脫對NVIDIA與AMD的依賴

觀察AI服務器(AI server)所用的加速芯片,其中英偉達(NVIDIA)Server GPU市占最高。然而,單張2萬-2.5萬美元的H100/H800,一台AI服務器建議配置約爲8張卡,也使得總體擁有成本(Total Cost of Ownership,TCO)大幅提升。TrendForce集邦咨詢觀察到,各雲端服務業者(CSP)雖然仍會向NVIDIA或超威(AMD)采購Server GPU,但也同步進行自研AI加速芯片的計劃。

除了已經推出的Google TPU與AWS Trainium和Inferentia外,Google與AWS正着手研發次世代自研AI加速芯片,將采用HBM3或HBM3e。TrendForce集邦咨詢表示,其他包含北美及中國的雲端服務業者亦有相關驗證進行中,預期未來AI加速芯片版圖競爭會更加激烈。

最新評論

風險聲明: 金融工具及/或加密貨幣交易涉及高風險,包括可損失部分或全部投資金額,因此未必適合所有投資者。加密貨幣價格波幅極大,並可能會受到金融、監管或政治事件等多種外部因素影響。保證金交易會增加金融風險。
交易金融工具或加密貨幣之前,你應完全瞭解與金融市場交易相關的風險和代價、細心考慮你的投資目標、經驗水平和風險取向,並在有需要時尋求專業建議。
Fusion Media 謹此提醒,本網站上含有的數據資料並非一定即時提供或準確。網站上的數據和價格並非一定由任何市場或交易所提供,而可能由市場作價者提供,因此價格未必準確,且可能與任何特定市場的實際價格有所出入。這表示價格只作參考之用,而並不適合作交易用途。 假如在本網站內交易或倚賴本網站上的資訊,導致你遭到任何損失或傷害,Fusion Media 及本網站上的任何數據提供者恕不負責。
未經 Fusion Media 及/或數據提供者事先給予明確書面許可,禁止使用、儲存、複製、展示、修改、傳輸或發佈本網站上含有的數據。所有知識產權均由提供者及/或在本網站上提供數據的交易所擁有。
Fusion Media 可能會因網站上出現的廣告,並根據你與廣告或廣告商產生的互動,而獲得廣告商提供的報酬。
本協議以英文為主要語言。英文版如與香港中文版有任何歧異,概以英文版為準。
© 2007-2024 - Fusion Media Limited保留所有權利