Palo Alto Network AI代理人 AI 資安

自主且具備憑證:AI 代理人正成為下一波雲端風險

2025-10-13
AI代理人無法像人類那樣充分理解語境、意圖與後果,這使它們特別容易成為欺騙、操控與脅迫的對象。Anthropic資訊安全長(CISO)於今(2025)年四月提出一項引人注目的預測:未來一年內,搭載AI的虛擬員工將具備企業憑證,在組織中正式上線運作。這些AI代理人不再只是輔助工具,而將真正融入企業團隊,成為工作流程中的一員。

下一波「內部威脅」:AI代理人

AI的導入,正為企業應用堆疊引入一系列尚未成熟的全新元素——包括基礎設施、模型、資料集、工具與外掛模組。而如今,隨著AI代理人(AI agents)的問世,這波創新正在進一步加速。與傳統的大型語言模型(LLMs)不同,AI代理人具備推理能力、自主執行行動,甚至能與其他代理人協作。它們擁有持續性的系統存取權限,不會休眠、不請假,並且能大規模部署於企業各部門。這不僅大幅提升效率,同時也讓企業環境變得更為複雜,帶來全新的資安挑戰。一旦遭到入侵,單一AI代理人所造成的破壞,可能在數分鐘內超越惡意內部人員數月才能完成的攻擊規模。AI的效能雖令人期待,但若無完善的安全機制,亦可能成為企業內部最具威脅性的來源。

AI員工有可能很快成為甚至超越內部人員,成為企業最危險的威脅來源。資安組織OWASP最近發布了《Agentic AI威脅與緩解指南》,揭示了包括提示注入(prompt injection)、工具濫用、身份偽造等新興攻擊手法。此外,Palo Alto Networks威脅情報小組Unit 42的最新報告指出,提示注入仍是最具威力且多樣化的攻擊向量之一,攻擊者可藉此洩漏敏感資料、濫用系統工具,甚至顛覆AI代理人的行為。

我們多年來致力於構築以人為核心的防禦體系,現在必須以同等甚至更嚴謹的標準,來面對那些以我們名義行動的機器。

採取行動

Palo Alto Networks最近推出Prisma AI Runtime Security(AIRS),旨在幫助企業「發現、評估並保護環境中的每一個AI應用、模型、資料集與代理人」。透過Prisma AIRS,企業將獲得一個全面的平台,提供:

  • AI模型掃描—安全採用AI模型,並掃描漏洞。保護您的AI生態系,防範模型篡改、惡意腳本及反序列化攻擊等風險。
  • AI安全態勢管理—深入了解您的AI生態系所面臨的安全風險,例如過度權限、敏感資料暴露、平台配置錯誤、存取錯誤配置等。
  • AI紅隊測試—在惡意攻擊者行動之前,揭露潛在風險與隱藏威脅。使用我們的紅隊代理人,對AI應用與模型進行自動化滲透測試,模擬真實攻擊者的學習與適應行為。
  • 運行階段安全防護—保護基於大型語言模型(LLM)的AI應用、模型與資料,防範提示注入、惡意代碼、毒性內容、敏感資料外洩、資源過載、幻覺等運行時威脅。
  • AI代理人安全—保障代理人(包含基於無碼/低碼平台所構建者)免受新型代理威脅,如身份冒用、記憶操控及工具濫用等攻擊手法。

隨著AI改變企業運作模式及攻擊手法,Prisma AIRS同樣迅速演進。企業可以憑藉Prisma AIRS,自信擁抱AI的未來。


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!