智通財經APP獲悉,社交媒體Facebook和Instagram母公司Meta Platforms(META.US)計劃今年在其數據中心部署一款新版本的定製化AI芯片,旨在支持其人工智能(AI)技術發展。這款芯片是Meta去年宣佈的“第二代內部芯片生產線”,可能有助於減少對佔據AI芯片市場主導地位的英偉達(NVDA.US)旗下昂貴AI芯片的重度依賴——這也是谷歌和微軟選擇自研AI芯片的原因之一,並在Meta計劃推出新的人工智能產品之際,控制與運行人工智能訓練/推理工作負載相關的不斷上升的成本。
這家全球最大規模的社交媒體公司一直在不斷提升計算能力,以支持對算力和電力消耗極高的生成式人工智能產品,該科技巨頭正在將其開發的生成式AI產品Meta AI推向全球的Facebook、Instagram和WhatsApp等Meta家族應用程序,以及Ray-Ban智能眼鏡等硬件設備。Meta已經斥資數十億美元積累了大量AI芯片,比如英偉達H100,並重新配置了數據中心以適應這些芯片。
硅研究集團SemiAnalysis的創始人迪倫•帕特爾(Dylan Patel)表示,以Meta的運營規模,成功部署自己的AI芯片,每年可能將節省數億美元的能源成本和數十億美元的芯片採購成本。
運行ChatGPT等生成式人工智能應用所需的芯片、基礎設施和能源已經成爲科技公司投資的“巨大天坑”,在一定程度上抵消了圍繞這項技術的興奮熱潮所帶來的收益。
科技巨頭們紛紛擁抱自研AI芯片
Meta的一位發言人證實了將於2024年投產的計劃,稱該芯片將與該公司正在購買的數十萬個現成英偉達 H100等AI芯片協同工作。該發言人在一份聲明中表示:“我們認爲,我們內部開發的AI加速器在爲Meta特定的AI工作負載提供最佳的性能和效率組合方面,將與市售的商用AI芯片形成高度互補。”
Meta首席執行官馬克·扎克伯格在上個月曾表示,該公司計劃在今年年底前擁有大約35萬顆來自英偉達的旗艦AI芯片——H100,這是英偉達研發的當前全球最受歡迎的用於人工智能工作負載的服務器GPU。他在當時強調,與自研版全新AI芯片以及其他潛在供應商的AI芯片加起來後,Meta將累積等效於60萬個H100 AI芯片的計算能力。
作爲該計劃的一部分,部署自己的自研AI芯片對Meta的內部人工智能芯片項目來說是一個積極的轉折,此前該公司高管在2022年決定停止該芯片的“第一次迭代”。
相反,該公司選擇購買價值數十億美元的英偉達AI芯片,後者在一個名爲“訓練”的人工智能負載工作過程中幾乎佔據壟斷地位,該過程涉及將大量數據集輸入模型,教它們如何執行任務。由於英偉達AI芯片的獨有架構,英偉達H100等芯片在推理領域同樣能夠勝任,但是推理領域算力要求遠不及訓練端,因此在推理領域面臨的競爭對手相對較多。
相比於英偉達或者AMD的通用型AI芯片,自研AI芯片,也被稱作ASIC,往往更適合科技公司本身的人工智能工作負載需求且成本較低。
比如,雲計算巨頭微軟和亞馬遜選擇自研AI芯片主要是爲了優化特定AI計算任務的性能和成本效率,同時減少對英偉達等外部供應商的依賴。自研AI芯片往往能夠更好地整合進公司的雲計算平臺和服務中,提供定製化的解決方案以滿足特定的業務需求。
全球第一大公有云巨頭——亞馬遜旗下的AWS近期宣佈推出爲生成式AI和機器學習訓練而設計全新自研AI芯片AWS Trainium2,性能比上一代芯片提高到4倍,可提供65ExaFlops超算性能。微軟近期宣佈推出第一款定製的自研CPU 系列 Azure Cobalt 和AI加速芯片 Azure Maia,後者是微軟首款人工智能芯片,主要針對大語言模型訓練,預計將於明年初開始在微軟Azure數據中心推出。另一大雲巨頭谷歌近期宣佈推出新版本的TPU芯片TPU v5p,旨在大幅縮減訓練大語言模型時間投入,v5p是今年早些時候全面推出的Cloud TPU v5e的更新版本。
Meta自研版全新AI芯片聚焦推理端
相較於AI訓練,AI推理領域對於“海量數據轟炸”應用背景下的GPU並行化算力需求遠遠不及訓練領域,推理進程涉及應用已經訓練好的模型來進行決策或識別,極度擅長複雜邏輯處理任務和控制流任務的以CPU爲核心的中央處理器足以高效率地應付諸多推理場景。
從產業發展趨勢來看,AI算力負載大概率將逐步從訓練全面向推理端遷移,這意味着AI芯片門檻可能將顯著降低,覆蓋可穿戴設備、電動汽車以及物聯網等領域的芯片公司未來有望全面滲透至AI推理芯片領域。
華爾街大行摩根士丹利在2024年十大投資策略主題中指出,隨着消費類邊緣設備在數據處理、存儲端和電池續航方面的大幅改進,2024年將有更多催化劑促使邊緣AI這一細分領域迎頭趕上,AI行業的發展重點也將從“訓練”全面轉向“推理”。
邊緣AI是指在端側設備(如PC、智能手機、IoT設備和汽車等)上直接進行AI數據流處理的技術。市場研究機構Gartner預計到2025年,50%企業數據將在邊緣端創建,跨越數十億臺設備。這意味着AI大模型的推理(即應用模型進行決策或識別的過程)有望批量在端側設備進行,而不是在遠程服務器或雲端。
高通CEO Amon則指出,芯片製造商們的主要戰場不久後將由“訓練”轉向“推理”。Amon在近日接受採訪時表示:“隨着AI大模型變得更精簡、能夠在設備上運行並專注於推理任務,芯片製造商的主要市場將轉向‘推理’,即模型應用。預計數據中心也將對專門用於已訓練模型推理任務的處理器產生興趣,一切都將助力推理市場規模超越訓練市場。”
據瞭解,Meta的這款全新自研AI芯片內部被稱爲“Artemis”,和它的前身一樣,只能執行一個被稱爲“推理”的人工智能負載工作過程,在這個過程中,模型被要求使用它們的算法來做出排名判斷等響應,並對用戶的提示做出迴應。
有媒體曾在去年報道稱,Meta正在開發一款更有雄心的芯片,像英偉達H100一樣,能夠同時進行訓練和推理。
這家總部位於加州門洛帕克的科技巨頭曾於去年曾分享了第一代Meta訓練和推理加速器(MTIA)項目的相關細節。但是這一公告僅僅將該版本的芯片描述爲一個學習機會。該計劃此後並未被Meta提及。
帕特爾表示,儘管早期出現了一些難以解決的問題,但在處理Meta的推薦模型等推理功能時,推理領域的AI芯片可能比耗電的英偉達H100等芯片要高效得多。“因此,大量的資金和電力將有望全面節省下來。”