發新話題
打印

[轉貼] AI伺服器需求看漲 今年出貨年增38.4%

AI伺服器需求看漲 今年出貨年增38.4%

自由時報 2023/05/29 市場對於AI伺服器、AI晶片的需求同步看漲,集邦(TrendForce)預估,包括GPU(圖形處理器)、FPGA(現場可程式化邏輯閘陣列)、ASIC(特定應用積體電路)在內的AI伺服器,今年出貨量近120萬台、年增38.4%,佔整體伺服器出貨量近9%,至2026年將佔整體15%。3 W9 h" a+ ?  E9 w+ j- ~

4 c7 s' P$ x+ x! P7 s6 k4 S集邦指出,從去年至2026年的AI伺服器出貨量年複合成長率上修至22%,AU晶片今年出貨量將成長46%,目前NVIDIA GPU為AI伺服器市場搭載主流,市佔率約60%至70%,其次為雲端業者自主研發的AISC晶片,市佔率逾20%。0 [) Y, V& s" o) U0 {- g8 n: z- _

1 h: e$ _; r' R5 ~, j. J: x- V觀察NVIDIA市佔率高的主要原因,包括無論美系、中系雲端服務供應商,除了採購原有的NVIDIA的A100與A800外,下半年需求也將陸續導入H100與H800,尤其新機種H100與H800的產品平均售價,約為A100與A800的2倍至2.5倍,加上NVIDIA也同時積極銷售自家相關整機解決方案。! p/ Y. [1 p9 R
3 T. l# _( c! _9 R& z
集邦指出,高階GPU A100及H100的高獲利模式也是關鍵,由於旗下產品在AI伺服器市場已擁有主導權的優勢,H100本身的價差也依據買方採購規模,會產生近5000美元的差異,此外,下半年ChatBOT及AI運算風潮將持續滲透至各種專業領域,每台搭配4至8張GPU的雲端AI,以及每台搭載2至4張GPU的邊緣AI伺服器,應用需求皆將受到帶動漸增,預估今年搭載A100及H100的AI伺服器出貨量年增率逾5成。
8 b: U  M) a* R! ]# _! {
1 [- Y. C9 ^3 u% o) G1 z此外,從高階GPU搭載的HBM(高頻寬記憶體)來看,NVIDIA高階GPU H100、A100主採HBM2e、HBM3,可提升整體AI伺服器系統運算效能。隨著高階GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的張量處理器(TPU)等需求皆逐步提升下,集邦預估,市場對於HBM需求量將年增58%,2024年有望再成長約30%。

TOP

發新話題