產經情報

英特爾推Sapphire Rapids 促進AI運算「民主化」

日期:2023-01-18

英特爾(Intel)正式發表第四代Xeon可擴充處理器Sapphire Rapids,導入許多為協助加速人工智慧(AI)工作負載而設計的新功能。此外,英特爾也推出AI軟體套件,提供開源與商業工具,在軟硬體結合下,協助客戶打造、優化與有效運用AI工作負載,希望加速AI技術的普及。

綜合Tom’s Hardware與彭博(Bloomberg)報導,Sapphire Rapids除了雙插槽通用款以外,也有針對液冷、單插槽、聯網、雲端、高效能運算(HPC)與儲存/超融合基礎架構(HCI)系統等設計的特製款,可說照顧到幾乎所有的工作負載需求。

VentureBeat評論,在AI與機器學習(ML)應用上,有關CPU與GPU分別可以運行哪些工作負載,長期以來一直存在著涇渭分明的界線。例如,ML訓練常被認為是GPU與專用加速器獨佔的領域。英特爾的目的,就是抹除這種界線,讓不同應用規模的客戶,從訓練、推論到資料準備工作,從網路邊緣到雲端,都能透過共同的資料中心平台,使用CPU來進行。

英特爾特別指出,目前AI技術掌握在少數人手中,是一大問題;目前,AI正在滲入所有應用程式與工作流程當中,英特爾希望透過對應用程式端到端效能的關注,加速AI對所有應用程式的融入。

通用CPU Sapphire Rapids,就是為實現此一願景而誕生。

技術上的進步,令Sapphire Rapids能夠給予客戶更高的彈性,可結合不同廠商供應的多種晶片,在既有環境中運作。Sapphire Rapids所有型號都支援AVX-512、深度學習強化(DL Boost)、進階矩陣擴充指令集(AMX)等。作為最重要的AI創新之一,AMX為目前許多DL工作負載當中最核心的稠密矩陣乘法,提供CPU加速功能。

NVIDIA新一代DGX H100 AI加速伺服器系統,捨棄前代使用的超微(AMD)晶片,轉採Sapphire Rapids。除了像NVIDIA這種高階AI設備以外,由於Sapphire Rapids內建多種加速器,因此諸如一般公司內部資料中心較低階的伺服器,也能藉此享受AI技術帶來的便利。

相較之下,超微第四代Epyc處理器Genoa雖然勝在最高核心數,但就沒有類似的加速功能。

英特爾表示,大型語言模型(LLM)的初步訓練,通常還是需要獨立式GPU的協助。但是,較為一般的用例,例如若是針對已經存在的LLM,進行微調或重新訓練的話,AMX功能就可以提供優良的效能表現。作為AMX的一個主要用例,英特爾正在推行名為轉移學習(transfer learning)的概念,這是指將原來模型的學習,轉移到一個新的資料集,因此可以更快速的進行模型的有效運用。