智通財經APP獲悉,TrendForce集邦諮詢表示,屬Blackwell平臺的B100等,其裸晶尺寸(die size)是既有H100翻倍,估計臺積電(TSMC)2024年CoWos總產能年增來到150%,隨着2025年成爲主流後,CoWos產能年增率將達7成,其中NVIDIA需求佔比近半。HBM方面,隨着NVIDIA GPU平臺推進,H100主搭載80GB的HBM3,至2025年的B200將達搭載288GB的HBM3e,單顆搭載容量將近3~4倍成長。而據三大原廠目前擴展規劃,2025年HBM生產量預期也將翻倍。
根據TrendForce集邦諮詢研究,NVIDIA Hopper平臺H100於今年第一季短缺情形逐漸紓解,屬同平臺的新品H200於第二季後逐漸放量,第三季新平臺Blackwell將進入市場,第四季擴展到數據中心客戶。但今年應仍以Hopper平臺爲主,包含H100、H200等產品線;根據供應鏈導入Blackwell平臺進度,預計今年第四季纔會開始放量,佔整體高階GPU比例將低於10%。
Microsoft、Meta、AWS將首波採用GB200
據TrendForce集邦諮詢研究,以雲端服務業者(CSP)導入現況來看,以Microsoft、Meta、AWS較爲積極,預期2025年GB200方案合計出貨量有機會達逾30,000櫃,Google則可能傾向優先擴大自家TPU AI基礎設施。Blackwell平臺之所以備受市場期待,主要是有別於HGX或MGX單臺AI服務器,改推整櫃式型態,整合自家CPU、GPU、NVLink及InfiniBand等高速網通技術。其中,GB200又分爲NVL36及NVL72,每櫃分別搭載達36及72顆GPU,而NVL72將爲NVIDIA主推組態,但因其設計較爲複雜,估計2024年底將以NVL36先導入前期試練,以求快速進入市場(Time to Market)。
2024年AI服務器需求持續擴大
據NVIDIA FY1Q25資料來看,企業客戶、Tier-2數據中心客羣需求明顯提升。TrendForce集邦諮詢表示,受限於2023年CoWoS及HBM供應不及,如NVIDIA優先將其高階GPU提供給大型雲端服務業者(Hyper CSP),以全球高階AI server整體市場來看,2023年CSP合計對AI服務器的需求量佔比約65%。自2024年上半年隨GPU供貨短缺獲緩解後,今年來自服務器品牌商如Dell、HPE的需求佔比將擴大至19%;其他包含各地區Tier-2數據中心如CoreWeave、Tesla等,或各國超算中心項目等,合計需求佔比將提高至31%,主因AI訓練或應用過程中,可能涉及數據隱私安全等議題,預期未來此塊市場也將扮演驅動AI服務器出貨成長的關鍵。