人工智慧(AI)正重塑運算方式,從雲端規模的處理到個人裝置上的即時推論,無所不在。隨著AI的採用速度加快,市場對高效能、可擴展、且具能源效率的運算平台需求日益增加。挑戰在於如何在從雲端資料中心到受限於電力的邊緣裝置等多樣化環境中實現AI,同時不犧牲效率或安全性。
加速實現無所不在的AI:從雲端到邊緣
AI工作負載涵蓋極廣的運算環境,從雲端模型訓練到裝置上的推論皆涵括在內。能夠在這整個範圍內有效率地執行AI,是實現應用擴展與即時效能的關鍵。隨著AI模型日益複雜,雲端服務商需要高效率的運算平台來處理大規模工作負載,同時控制營運成本。
在雲端環境中,基於Arm的解決方案提供可擴展的AI運算能力,協助資料中心在維持能源效率的同時最佳化效能。相較於傳統架構,Arm CPU在AI推論任務中能提供更高的運算吞吐量並降低功耗,因此越來越多雲端執行個體採用其架構。
在雲端之外,AI推論迅速朝向邊緣移動,原因在於需要低延遲處理與強化隱私。在裝置端執行AI——無論是在智慧型手機、工業感測器還是嵌入式系統上——可減少對雲端資源的依賴,並實現即時決策。Armv9架構導入了數項針對AI加速的關鍵強化功能,包括可擴展向量擴充指令(SVE)以提升AI運算效率,及運算矩陣引擎(CME)以強化向量處理能力。此外,異質運算策略可讓CPU與GPU、NPU協同運作,依據具體的工作負載需求提供平衡的AI執行框架。
為生成式AI提供動力的高效能節能平台
AI工作負載的指數型成長,引發對電力消耗與永續性的關注。訓練大型AI模型需大量運算資源,而大規模推論則要求有效率地處理以避免過度耗能。Arm的運算架構正是為應對這項挑戰所設計,使AI工作負載在不犧牲效能的情況下實現高效率執行。
在AI部署中,永續性已成為核心關注重點,尤其是在大規模雲端作業中。AI工作負載正促使資料中心的電力需求不斷上升。藉由導入Arm運算平台,雲端服務商能提升能源效率,實現高運算效能的同時降低用電量。
可於各處執行AI工作負載的平台
隨著AI採用程度日益提升,安全性已成為確保AI工作負載信任度與可靠性的關鍵因素。AI模型通常處理大量資料,且常涉及敏感或專有資訊,因此防範資安威脅、資料外洩與未授權存取變得十分重要。
「安全優先」的設計策略可將強化安全功能直接整合至其運算架構中,為跨產業的AI部署提供可信賴的基礎。Armv9架構導入了Arm Confidential Compute Architecture (CCA)與Realm Management Extension (RME),確保無論運算在哪裡進行,從晶片層級即可保護AI資料與程式碼。隨著AI推論從雲端向邊緣移動,這些安全性強化功能變得更加重要,因為裝置需在本地處理敏感資料,並防範外部威脅。
透過整合硬體層級的安全機制,實現了隱私保護型AI,可保障靜態資料與傳輸中的資料安全。這對於如醫療、金融、自主系統等處理機密資料的產業尤其重要。此外,在雲端環境中,安全框架提供硬體層的保護機制,可降低多租戶基礎設施所帶來的風險,並防止未經授權的模型存取。
隨著AI持續擴展,安全性必須成為運算設計的核心。Arm運算平台在這場轉型中扮演關鍵角色,為跨產業的AI工作負載提供架構基礎。透過讓AI有效率地運行於CPU、GPU與NPU上,Arm支援一個能大規模部署AI的生態系。此策略建立在三大核心支柱之上:從雲端到邊緣推動AI加速、實現能源效率高的AI推論,以及在AI工作負載中確保安全性與信任。