產經情報

2024年科技重點趨勢一次看

日期:2023-11-08

全球市場研究機構TrendForce針對2024年科技產業發展,整理科技產業重點趨勢,內容請見下方:

CSP加大AI投資 2024年AI伺服器出貨成長逾38%

伴隨ChatBOT、生成式AI等在各應用領域發力,CSP業者如Microsoft、Google、AWS等加大AI投資力道,推升AI伺服器需求上揚,TrendForce估算,2023年AI伺服器(包含搭載GPU、FPGA、ASIC等)出貨量逾120萬台,年增將達37.7%,占整體伺服器出貨量達9%,2024年將再成長逾38%,AI伺服器占比將逾12%。除了NVIDIA與AMD的GPU解決方案外,大型CSP業者擴大自研ASIC晶片將成趨勢,Google自2023年下半加速自研TPU導入AI伺服器,年成長將逾7成,2024年AWS亦將擴大採用自研ASIC,出貨量有望翻倍成長,其他如Microsoft、Meta等亦規劃擴展自研ASIC計畫,GPU部分成長潛力也因此受到侵蝕。整體而言,2023~2024年主由CSP等業者積極投資帶動AI伺服器需求成長,2024年後將延伸至更多應用領域業者投入專業AI模型及軟體服務開發,帶動搭載中低階GPU(如L40S等系列)等邊緣AI Server成長,預期2023~2026年邊緣AI伺服器出貨平均年成長率將逾兩成。

HBM3e將推升全年HBM營收年增達172%

隨著AI伺服器建置熱潮,帶動了AI加速晶片需求,其中高頻寬記憶體(HBM)為加速晶片上的關鍵性DRAM產品。以規格而言,除了現有的市場主流HBM2e外,今年HBM3的需求比重亦隨著NVIDIA H100/H800以及AMD MI300系列的量產而提升。展望2024年,三大記憶體廠商將進一步推出新一代高頻寬記憶體HBM3e,一舉將速度提升至8Gbps,提供2024~2025年新款AI加速晶片更高的性能表現。AI加速晶片市場除了Server GPU龍頭廠商NVIDIA、AMD外,CSP業者也加速開發自研AI晶片的腳步,產品共通點為皆搭載HBM。伴隨訓練模型與應用的複雜性增加,預期將帶動HBM需求大幅成長。HBM相比其他DRAM產品的平均單位售價高出數倍,預期2024年將對記憶體原廠的營收將有顯著挹注,預估2024年HBM營收年增長率將達172%。


詳細內文請參考網址...