AI 正加速邁向邊緣運算,逐步改變企業部署 AI 的策略。根據市調機構 Marketandmarkets 預估,邊緣 AI 軟體市場規模將從 2024 年的 19.2 億美元,成長到 2030 年的 71.9 億美元,年複合成長率 24.7%。然而,這類部署方式也暴露出新的資安弱點。
典型的邊緣 AI 應用包括工業物聯網設備、自駕車、工廠內的智慧製造設備,以及智慧型手機、智慧音箱、智慧監視設備等。邊緣 AI 的最大優勢,在於能夠在本地端處理資料,無須將所有原始資料傳回雲端──這不僅可降低延遲、減少頻寬壅塞,也強化即時決策能力,並縮小敏感資料的傳輸攻擊面。
然而,邊緣 AI 公司 Latent AI 執行長 Jags Kandasamy 指出,部署 AI 模型的每個階段都可能產生風險,即使標榜「離線」的裝置,也可能會間歇性連網傳輸資料。那麼,企業該如何安全地部署邊緣 AI?
盤點邊緣 AI 部署的 4 大資安風險
第一,即便是邊緣 AI,仍有資料隱私和完整性風險。根據《IEEE IoTM》論文研究,生成式 AI 能大量生成與操縱資料,如果缺乏適當保護,可能導致敏感資料外洩和資料完整性受損,而在物聯網環境中,由於設備持續收集和傳輸數據,這類風險將進一步放大。
Check Point 全球解決方案架構師 Antoinette Hodes 表示,邊緣設備通常部署於遠端或不安全場域,容易遭到物理破壞、未經授權存取或網路入侵,而端點可能會成為駭客滲透整體系統的潛在入口。
第二,邊緣 AI 的分散部署特性,導致監控困難與防護不一致。《IEEE IoTM》論文指出,每一台物聯網設備都可能成為潛在漏洞,且單一設備的漏洞就可能危及整個網路。此外,不同邊緣設備在功能與安全協議上也存在差異,使得跨設備的安全難以標準化,造成資安防線落差。
第三,儘管邊緣運算具備隱私防護優勢,但有越來越多高階攻擊技術對分散式 AI 系統構成威脅。歐盟資助的「EdgeAI 計畫」列舉數種新型攻擊手法,包括梯度洩漏攻擊(DLG,Deep leakage from gradients)、模型反推攻擊(Model inversion attacks)、成員推論攻擊(Membership Inference)等攻擊手法,對處理敏感資訊的系統構成重大威脅。
第四,邊緣 AI 的資安資源受限。EdgeAI 計畫表示,邊緣裝置因運算與記憶體資源有限,往往難以承載傳統資安機制。為應對這項挑戰,研究人員正積極開發輕量加密技術與壓縮型 AI 模型,在不過度耗用裝置資源的前提下維持資安防護。
從 AI 技術到治理架構,如何安全部署邊緣 AI?
邊緣 AI 公司 Latent AI 的執行長 Jags Kandasamy 認為,邊緣 AI 的安全性,應從設計階段即導入防護。舉例來說,可透過「數位浮水印(Watermarking)」技術,在模型訓練完成後嵌入獨特簽章,以標示模型歸屬並偵測是否備竄改。同時,「加密」技術能確保即使設備遭駭,模型內容也難以被破解。「版本控制機制」也可協助追蹤被竊或複製的模型流向,利於法律追訴與風險控管。
從更宏觀的治理架構來看,美國智庫 R Street 研究員 Haiman Wong 指出,邊緣 AI 涵蓋了 AI、物聯網、雲端與分散式運算等多種技術,必須採取分層式的資安策略,針對每層進行防護設計,共可分為三層:
第一,針對涵蓋 IoT 裝置與嵌入式 AI 晶片等實體設備的「邊緣裝置層」,應強化角色權限控管、虛擬化隔離與執行環境驗證,防止裝置遭劫持或資料外洩。
第二,「網路層」連接邊緣設備與本地伺服器和雲端資料中心,可以執行的防護措施包括通訊加密、異常行為偵測與網路分段機制,防範中間人攻擊與 DDoS。
第三,「AI 運算層」處理 AI 推論與資料運算,可透過資料驗證與清洗、對抗訓練,以及將上下文資訊納入模型設計中來提升韌性。
部署邊緣 AI 不只是滿足低延遲、隱私需求,更涉及對資料保護方式的重新思考。隨著邊緣 AI 安全技術持續創新,例如量化感知訓練、選擇性加密、硬體加速安全功能,EdgeAI 計畫認為,未來將能在邊緣安全地運行 AI,開創過去雲端難以實現的隱私保護新格局。