2024年全球AI服務器出貨量將同比大漲42%!
10月16日,在市場調研機構TrendForce舉行的“AI時代半導體全局展開2025科技產業(yè)大預測”研討會上,TrendForce資深分析師龔明德表示,受益于云端服務供應商(CSP)及品牌客戶對建設AI基礎設施需求強勁,2024年全球AI服務器(含搭載GPU、FPGA、ASIC等)出貨量將同比增長42%。2025年受云端業(yè)者及主權云等需求帶動,出貨量有望再增長約28%,推動AI服務器占整體服務器市場出貨量比例提高至近15%。中長期來看,預期在各種云端AI訓練及推理應用服務推進下,2027年AI服務器占比有機會逼近19%。
觀察主要AI服務器芯片供應商,龔明德認為,英偉達(NVIDIA)表現(xiàn)一枝獨秀,其高階GPU 出貨量同比增長率將超過150%,其中以H200等H系列GPU為出貨主力產品。推動英偉達在2024年的AI GPU市場的市占率接近90%。至于Blackwell GPU平臺將于明年上半年放量并成為主流,明年占比從4% 拉高至84%。
其他AI芯片供應商如AMD、英特爾以及云端服務供應商也在積極推動自家的AI服務器芯片,將推升2025年AI芯片出貨增長動能,進一步帶動AI芯片所需的先進封裝(CoWoS)、高帶寬內存(HBM)出貨量翻倍增長。先進封裝技術也將從CoWoS-S 往CoWoS-L 邁進,HBM也將由HBM3 轉向HBM3e,也將明顯提升液冷散熱方案滲透率。
TrendForce 分析師邱珮雯認為,隨著運算能力提升,液態(tài)冷卻解決方案在數(shù)據(jù)中心逐步重要。在英偉達Blackwell GPU新平臺帶動下,GB200 NVL72 機柜方案的熱設計功耗(TDP)高達約140kW,須采用液冷方案才可有效解決散熱問題,預計初期將以水對氣(Liquid-to-Air,L2A)方式為主流。
除了英偉達之外,近年來谷歌、亞馬遜網絡服務公司(AWS)和微軟(Microsoft)等大型美系云端業(yè)者,也在布局液冷方案。其中CSP 自研高階ASIC 以谷歌最積極采用液冷方案,其TPU 芯片同時使用氣冷與液冷解決方案,其他CSP 仍以氣冷為主要散熱方案。中國產生方面,則以阿里巴巴采用液冷散熱解決方案最為積極。長期來看,全球對ESG 逐漸重視,將加速帶動散熱方案由氣冷轉液冷形式。
隨著頭部廠商的積極推動,預計AI 芯片的液冷散熱滲透率將從2024 年的11% 提升至2025 年的24%。
編輯:芯智訊-浪客劍
*博客內容為網友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。