AI伺服器需求看漲 今年出貨年增38.4%
自由時報 2023/05/29 市場對於AI伺服器、AI晶片的需求同步看漲,集邦(TrendForce)預估,包括GPU(圖形處理器)、FPGA(現場可程式化邏輯閘陣列)、ASIC(特定應用積體電路)在內的AI伺服器,今年出貨量近120萬台、年增38.4%,佔整體伺服器出貨量近9%,至2026年將佔整體15%。
) n! z c5 V# C8 q/ U S9 o/ U4 ^. ~( h" a
集邦指出,從去年至2026年的AI伺服器出貨量年複合成長率上修至22%,AU晶片今年出貨量將成長46%,目前NVIDIA GPU為AI伺服器市場搭載主流,市佔率約60%至70%,其次為雲端業者自主研發的AISC晶片,市佔率逾20%。% @5 b/ J( J- ]7 }9 t( x" n
_4 q6 Z; x1 Z8 H
觀察NVIDIA市佔率高的主要原因,包括無論美系、中系雲端服務供應商,除了採購原有的NVIDIA的A100與A800外,下半年需求也將陸續導入H100與H800,尤其新機種H100與H800的產品平均售價,約為A100與A800的2倍至2.5倍,加上NVIDIA也同時積極銷售自家相關整機解決方案。8 i- s: q/ L; L3 o4 d2 M7 N2 {
1 E$ r. D/ Q" N6 K# o集邦指出,高階GPU A100及H100的高獲利模式也是關鍵,由於旗下產品在AI伺服器市場已擁有主導權的優勢,H100本身的價差也依據買方採購規模,會產生近5000美元的差異,此外,下半年ChatBOT及AI運算風潮將持續滲透至各種專業領域,每台搭配4至8張GPU的雲端AI,以及每台搭載2至4張GPU的邊緣AI伺服器,應用需求皆將受到帶動漸增,預估今年搭載A100及H100的AI伺服器出貨量年增率逾5成。
0 v% R0 M0 c' i4 V5 i/ R6 l u' ~8 }% ]
此外,從高階GPU搭載的HBM(高頻寬記憶體)來看,NVIDIA高階GPU H100、A100主採HBM2e、HBM3,可提升整體AI伺服器系統運算效能。隨著高階GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的張量處理器(TPU)等需求皆逐步提升下,集邦預估,市場對於HBM需求量將年增58%,2024年有望再成長約30%。