F5 AI 威脅情報 Agentic AI 資安

全面性AI安全指數與Agentic韌性評分,協助企業從測試到正式上線,全面進行AI系統的安全效能壓力測試

F5 Labs 以模型風險排行榜與威脅情報 為 AI 安全基準測試樹立全新標準

2026-03-12
全球應用與API交付與安全防護商F5,宣布推出強化版威脅情報資源,協助企業資安主管能夠確實地衡量並比較主流AI模型的風險概況。由F5 Labs威脅研究團隊發布的「綜合AI安全指數AI Security Index(CASI)與Agentic韌性評分Agentic Resistance Score(ARS)排行榜,結合即時威脅情報與不斷演進的AI攻擊向量的專家分析,提供標準化且每月更新的基準資料。

!此為分頁標誌前台不顯示!

超越模型安全的基準評估

這次的發布進一步強化全面上市的F5 AI Guardrails與F5 AI Red Team方案。F5 AI Guardrails讓企業執行開箱即用及內建與自訂的防護機制(guardrails),確保AI與使用者及資料互動時的安全性。F5 AI Red Team則透過多次自主AI代理進行高強度測試,模擬現代資安分析師團隊的運作模式,以及具探測、學習與適應能力的多步驟攻擊。

此方法直接作為CASI與ARS排行榜的評估依據,使F5能同時衡量模型的基礎安全特性,以及在持續且貼近真實世界威脅情境下的長期抵禦能力。除每月更新CASI與ARS最新評分排名外,F5 Labs亦同步發布每月AI Security Insights研究報告,說明排行榜分數變動背後的關鍵原因,解析最新AI產業動態與研究發展,並深入剖析特定AI攻擊案例。

IDC AI Security & Trust研究總監Grace Trinidad表示,隨著F5併購CalypsoAI,其原有的流量檢測與日誌能力更進一步擴展,新增執行階段(runtime)的AI治理能力與對AI系統行為的可視性。結合其資安研究部門F5 Labs每月更新的CASI與ARS排名,F5客戶不僅獲得一套在選擇AI模型時具參考價值的實用安全指標,也同時具備所需工具,以限制AI系統的使用方式、可存取的資料範圍,以及輸出內容的生成機制。

F5 Labs AI Leaderboards僅是F5協助客戶與資安社群,以更全面視角理解不斷演進的攻擊手法與模型防禦能力的其中一項實例。透過更全面理解持續演進的攻擊手法與模型防禦機制,協助因應日益升高的現代資安威脅挑戰。透過建立領先AI模型的正式排名制度,F5 Labs亦鼓勵資安專業人員間的知識共享,進而產生正向循環,加速應用安全最佳實務的廣泛採用。


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!