智通財經APP獲悉,7月30日,TrendForce集邦諮詢發文稱,隨着高速運算的需求成長,更有效的AI Server(AI服務器)散熱方案也受到重視。根據TrendForce集邦諮詢最新AI Server報告,由於英偉達(NVDA.US)將在2024年底前推出新一代平臺Blackwell,屆時大型CSP(雲端服務業者)也會開始建置Blackwell新平臺的AI Server數據中心,預估有機會帶動液冷散熱方案滲透率達10%。
氣冷、液冷並行方案滿足更高散熱需求
根據TrendForce集邦諮詢調查,NVIDIA Blackwell平臺將於2025年正式放量,取代既有的Hopper平臺,成爲NVIDIA高端GPU(圖形處理器)主力方案,佔整體高端產品近83%。在B200和GB200等追求高效能的AI Server機種,單顆GPU功耗可達1,000W以上。HGX機種每臺裝載8顆GPU,NVL機種每櫃達36顆或72顆GPU,可觀的能耗將促進AI Server散熱液冷供應鏈的成長。
TrendForce集邦諮詢表示,服務器芯片的熱設計功耗(Thermal Design Power, TDP)持續提高,如B200芯片的TDP將達1,000W,傳統氣冷散熱方案不足以滿足需求;GB200 NVL36及NVL72整機櫃的TDP甚至將高達70kW及近140kW,需要搭配液冷方案方以有效解決散熱問題。
據TrendForce集邦諮詢瞭解, GB200 NVL36架構初期將以氣冷、液冷並行方案爲主;NVL72因有更高散熱能力需求,原則上優先使用液冷方案。
觀察現行GB200機櫃系統液冷散熱供應鏈,主要可分水冷板(Cold Plate)、冷卻分配系統(Coolant Distribution Unit, CDU)、分歧管(Manifold)、快接頭(Quick Disconnect, QD)和風扇背門(Rear Door Heat Exchanger, RDHx)等五大零部件。
TrendForce集邦諮詢指出,CDU爲其中的關鍵系統,負責調節冷卻劑的流量至整個系統,確保機櫃溫度控制在預設的TDP範圍內。TrendForce集邦諮詢觀察,目前針對NVIDIA AI方案,以Vertiv(維諦技術)爲主力CDU供應商,奇鋐、雙鴻、臺達電和CoolIT等持續測試驗證中。
2025年GB200出貨量估可達6萬櫃,促Blackwell平臺成市場主流、將佔NVIDIA高端GPU逾8成
根據TrendForce集邦諮詢觀察,2025年NVIDIA將以HGX、GB200 Rack及MGX等多元組態AI Server,分攻CSPs及企業型客戶,預估這三個機種的出貨比例約爲5:4:1。HGX平臺可較無縫對接現有Hopper平臺設計,使CSPs或大型企業客戶能迅速採用。GB200整櫃AI Sever方案將以超大型CSPs爲主打,TrendForce集邦諮詢預期NVIDIA將於2024年底先導入NVL36組態,以便快速進入市場。NVL72因其AI Server整體設計及散熱系統較爲複雜,預計將於2025年推出。
TrendForce集邦諮詢表示,在NVIDIA大力擴展CSPs客羣的情況下,預估2025年GB200折算NVL36合計出貨數量可望達6萬櫃,而GB200的Blackwell GPU用量可望達210-220萬顆。
然而,終端客戶採用GB200 Rack的過程仍有幾項變量。TrendForce集邦諮詢指出,NVL72需較完善的液冷散熱方案,難度較高。而液冷機櫃設計較適合新建數據中心,但會牽涉土地建物規劃等複雜程序。此外,CSPs可能不希望被單一供應商綁住規格,可能會選擇HGX或MGX等搭載x86 CPU架構的機種,或擴大自研ASIC(專用集成電路)AI Server基礎設施,以應對更低成本或特定AI應用場景。