AI伺服器需求看漲 今年出貨年增38.4%
自由時報 2023/05/29 市場對於AI伺服器、AI晶片的需求同步看漲,集邦(TrendForce)預估,包括GPU(圖形處理器)、FPGA(現場可程式化邏輯閘陣列)、ASIC(特定應用積體電路)在內的AI伺服器,今年出貨量近120萬台、年增38.4%,佔整體伺服器出貨量近9%,至2026年將佔整體15%。
0 N: @& p4 |; n" C8 @" M) R' S/ Q, t& l4 Q6 [
集邦指出,從去年至2026年的AI伺服器出貨量年複合成長率上修至22%,AU晶片今年出貨量將成長46%,目前NVIDIA GPU為AI伺服器市場搭載主流,市佔率約60%至70%,其次為雲端業者自主研發的AISC晶片,市佔率逾20%。
! v$ H- A1 R7 {$ B- f0 _! N9 t- z- E* O" n3 v
觀察NVIDIA市佔率高的主要原因,包括無論美系、中系雲端服務供應商,除了採購原有的NVIDIA的A100與A800外,下半年需求也將陸續導入H100與H800,尤其新機種H100與H800的產品平均售價,約為A100與A800的2倍至2.5倍,加上NVIDIA也同時積極銷售自家相關整機解決方案。" O ~2 `3 C( h* g2 u
0 t+ m2 x1 {& @- |2 j* y集邦指出,高階GPU A100及H100的高獲利模式也是關鍵,由於旗下產品在AI伺服器市場已擁有主導權的優勢,H100本身的價差也依據買方採購規模,會產生近5000美元的差異,此外,下半年ChatBOT及AI運算風潮將持續滲透至各種專業領域,每台搭配4至8張GPU的雲端AI,以及每台搭載2至4張GPU的邊緣AI伺服器,應用需求皆將受到帶動漸增,預估今年搭載A100及H100的AI伺服器出貨量年增率逾5成。, c k0 D2 F$ s5 d
% J) ]0 b) K* c! @1 k此外,從高階GPU搭載的HBM(高頻寬記憶體)來看,NVIDIA高階GPU H100、A100主採HBM2e、HBM3,可提升整體AI伺服器系統運算效能。隨著高階GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的張量處理器(TPU)等需求皆逐步提升下,集邦預估,市場對於HBM需求量將年增58%,2024年有望再成長約30%。