AI伺服器需求看漲 今年出貨年增38.4%
自由時報 2023/05/29 市場對於AI伺服器、AI晶片的需求同步看漲,集邦(TrendForce)預估,包括GPU(圖形處理器)、FPGA(現場可程式化邏輯閘陣列)、ASIC(特定應用積體電路)在內的AI伺服器,今年出貨量近120萬台、年增38.4%,佔整體伺服器出貨量近9%,至2026年將佔整體15%。
5 e. X7 ?. v$ ^* Z; \ u: f( Q# X
集邦指出,從去年至2026年的AI伺服器出貨量年複合成長率上修至22%,AU晶片今年出貨量將成長46%,目前NVIDIA GPU為AI伺服器市場搭載主流,市佔率約60%至70%,其次為雲端業者自主研發的AISC晶片,市佔率逾20%。 }0 O! R' f2 C: D# K7 @2 p- Y0 ~) l: L
, X; E/ k& N( r1 J% ^$ x6 d5 o觀察NVIDIA市佔率高的主要原因,包括無論美系、中系雲端服務供應商,除了採購原有的NVIDIA的A100與A800外,下半年需求也將陸續導入H100與H800,尤其新機種H100與H800的產品平均售價,約為A100與A800的2倍至2.5倍,加上NVIDIA也同時積極銷售自家相關整機解決方案。% k' w/ J0 q5 l, @* `
) h( ?' Q# V% R( l集邦指出,高階GPU A100及H100的高獲利模式也是關鍵,由於旗下產品在AI伺服器市場已擁有主導權的優勢,H100本身的價差也依據買方採購規模,會產生近5000美元的差異,此外,下半年ChatBOT及AI運算風潮將持續滲透至各種專業領域,每台搭配4至8張GPU的雲端AI,以及每台搭載2至4張GPU的邊緣AI伺服器,應用需求皆將受到帶動漸增,預估今年搭載A100及H100的AI伺服器出貨量年增率逾5成。 f9 C- m) ]4 F7 X7 U
* e+ g G0 T7 x6 ^2 h* G此外,從高階GPU搭載的HBM(高頻寬記憶體)來看,NVIDIA高階GPU H100、A100主採HBM2e、HBM3,可提升整體AI伺服器系統運算效能。隨著高階GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的張量處理器(TPU)等需求皆逐步提升下,集邦預估,市場對於HBM需求量將年增58%,2024年有望再成長約30%。