Board logo

標題: [轉貼] AI伺服器需求看漲 今年出貨年增38.4% [打印本頁]

作者: gravius    時間: 2023-5-30 05:51     標題: AI伺服器需求看漲 今年出貨年增38.4%

自由時報 2023/05/29 市場對於AI伺服器、AI晶片的需求同步看漲,集邦(TrendForce)預估,包括GPU(圖形處理器)、FPGA(現場可程式化邏輯閘陣列)、ASIC(特定應用積體電路)在內的AI伺服器,今年出貨量近120萬台、年增38.4%,佔整體伺服器出貨量近9%,至2026年將佔整體15%。
9 u. z3 _, u. E& j
' r' {: v- h/ s1 l. L0 y1 I0 t+ W集邦指出,從去年至2026年的AI伺服器出貨量年複合成長率上修至22%,AU晶片今年出貨量將成長46%,目前NVIDIA GPU為AI伺服器市場搭載主流,市佔率約60%至70%,其次為雲端業者自主研發的AISC晶片,市佔率逾20%。$ F, d$ q/ R- o+ x0 L

. H3 U  e3 S1 E- y8 M- k4 n; t9 m! @觀察NVIDIA市佔率高的主要原因,包括無論美系、中系雲端服務供應商,除了採購原有的NVIDIA的A100與A800外,下半年需求也將陸續導入H100與H800,尤其新機種H100與H800的產品平均售價,約為A100與A800的2倍至2.5倍,加上NVIDIA也同時積極銷售自家相關整機解決方案。
6 V& s  |' L- b- R2 }6 k4 U! {, f( s, M, I7 r) J. X9 Z# x0 f! }
集邦指出,高階GPU A100及H100的高獲利模式也是關鍵,由於旗下產品在AI伺服器市場已擁有主導權的優勢,H100本身的價差也依據買方採購規模,會產生近5000美元的差異,此外,下半年ChatBOT及AI運算風潮將持續滲透至各種專業領域,每台搭配4至8張GPU的雲端AI,以及每台搭載2至4張GPU的邊緣AI伺服器,應用需求皆將受到帶動漸增,預估今年搭載A100及H100的AI伺服器出貨量年增率逾5成。
0 s) s$ T/ z( R# F$ o3 r' U, H" X- Q* H' t
此外,從高階GPU搭載的HBM(高頻寬記憶體)來看,NVIDIA高階GPU H100、A100主採HBM2e、HBM3,可提升整體AI伺服器系統運算效能。隨著高階GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的張量處理器(TPU)等需求皆逐步提升下,集邦預估,市場對於HBM需求量將年增58%,2024年有望再成長約30%。




歡迎光臨 風之國論壇 (http://wind.talkapple.net/) Powered by Discuz! 6.0.0