產經情報

【臺灣資安大會直擊】趨勢科技:企業可以LLM應用架構設計安全邊界檢視風險,以LEARN方法論強化LLM應用安全

日期:2025-04-17

生成式AI帶動大語言模型應用,然而企業使用大語言模型(LLM),不論是自行訓練或是微調,可能產生資安風險,趨勢科技架構師蔡凱翔建議,可從大型語言模型應用程式的發展生命周期,利用方法論去檢視開發階段中的安全邊界,降低相關的資安風險。

「大語言模型的開發生命周期,就是一種機器學習和DevOps的綜合體」,蔡凱翔說,趨勢科技針對大語言模型的資安風險發布報告,建立一套檢視LLM安全的方法論,他在今年臺灣資安大會上對外分享如何實作大語言模型的資安實務。

蔡凱翔首先指出,大型語言模型應用程式的開發生命周期可以分為,「資料工程」、「預訓練」、「基礎模型選擇」、「領域適配 」、「評估」、「應用開發與整合」、「部署與監控」,不同的開發階段,需要選擇不同的工具或方案開發模型。

以「資料工程」階段為例,通常涵蓋資料擷取、資料前處理、資料儲存及管理,不論企業選擇從無到有開發LLM模型,以資料進行預訓練,但是自行開發投入的成本相當昂貴,因此多數企業會選擇開源LLM模型作為基礎模型,不論自行開發模型或使用開源模型,在後續「評估」或是「部署與監控」階段,如果模型開發不如預期或是部署後使用者的回饋反應不佳,都可能重新回到「資料工程」。

至於「預訓練」階段,企業需要選擇分詞器(Tokenization),建立檢查點(Checkpointing),以及在預訓練過程中,產生不同訓練版本模型的版本控制(Versioning models);「基礎模型選擇」階段,企業根據自己的需求,選擇使用開源模型或專用模型;「領域適配」階段,企業運用提示工程、RAG或是微調等技術,讓模型適用於特定的任務,以獲得更好的表現。

「評估」階段則使用工具或是以人工監方式,檢驗大語言模型的效能、可靠或安全性;「應用開發與整合」階段為LLM應用開發框架,依需求選擇不同的LLM應用開發框架,例如LangChain、Python的開源框架Haystack、LlamaIndex等,或是MCP協定;「部署與監控」階段為部署和監控的方式,與開發應用程式相同,包括部署的模式、部署的策略、可視工具等。

蔡凱翔說,企業依照LLM開發生命周期各個階段進行開發,對應涉及到LLM應用架構,這個架構內包含不同的區塊,如DevSecOps區塊、模型訓練區塊、資料來源區塊、資料儲存區塊,還有LLM應用區塊,其中因為AI Agent可能拉出LLM Agent子區塊,「不同區塊的安全邊界當發生信任程度(Trustworthy)的變化,這些邊界代表風險發生的地方」。

他表示,一般而言,資安會發生在信任程度發生變化的時候,例如系統外面的使用者發送的請求,或是使用第三方的套件,這些都是由外到內的過程中,信任程度發生變化,「從LLM應用架構來看,哪些部分會帶來信任程度的改變,就是需要留意是否發生風險的地方」。

...詳細內文請參考網址