全球應用與API交付與安全防護商F5,宣布推出強化版威脅情報資源,協助企業資安主管能夠確實地衡量並比較主流AI模型的風險概況。由F5 Labs威脅研究團隊發布的「綜合AI安全指數AI Security Index(CASI)與Agentic韌性評分Agentic Resistance Score(ARS)排行榜,結合即時威脅情報與不斷演進的AI攻擊向量的專家分析,提供標準化且每月更新的基準資料。
基於F5併購的CalypsoAI的安全資源,包含全球規模龐大的AI漏洞資料庫,該資料庫每月獨家新增超過10,000筆攻擊提示(attack prompts),並整合累積超過一年的攻擊資料。透過F5 Labs,企業與更廣泛的資安社群能夠運用一套強而有力且一致的方式,在正式導入前,評估、比較與選擇AI模型與供應商,檢視他們面對主要挑戰與實際應對應用安全威脅的能力。
F5資深產品長Kunal Anand表示,將未經驗證的AI模型部署至關鍵基礎設施,並不是創新,而是失職。企業需要一種能持續量化韌性的機制。F5 Labs AI Leaderboards正提供這樣的標準。這些排名可精準識別模型層的特定弱點,讓資安團隊掌握必要的情資,並在攻擊發生前阻擋。
透過更完整的可視性,F5 Labs AI Leaderboards協助資安團隊從整體層面識別與補強各項漏洞,可與F5 Application Delivery and Security Platform搭配運作,提升整體防禦能力,涵蓋API與資料保護、阻擋DDoS攻擊,到透過自動化與可擴展性加強DevSecOps等多元面向的資安防護能力。
AI快速整合至企業營運各個層面,企業導入模型時需要進行更高標準的安全驗證。為了協助資安專業人員回答「我的模型有多安全?」這一關鍵問題,F5 Labs AI Leaderboards建立評估指標,針對攻擊者最容易入侵的路徑,以及完成簡單與複雜攻擊所需的最低運算資源進行量化分析。除了提供直觀的排名外,F5 Labs 的CASI亦涵蓋以下指標:
- 平均效能:在正常運作條件下,透過標準化任務所衡量的模型基準表現。
- 風險與效能比:洞察模型安全性與效能之間的權衡關係。
- 安全成本:依據模型CASI評分對應的當前推論成本,評估安全性對財務的影響。
作為CASI的補充指標,F5 Labs的ARS專門評估AI系統在面對持續、具適應性的攻擊時的防禦韌性。與單次提示攻擊不同,此類攻擊由具明確目標的AI代理(AI agent)發動,透過與模型進行長時間互動,運用推理與心理策略,試圖繞過安全防護機制。ARS從三大核心面向評估AI系統的抗攻擊能力:
- 所需攻擊複雜度:成功攻破AI系統所需的最低攻擊技巧與創新程度。
- 防禦耐久性:在長時間、具適應性與多步驟攻擊下,系統能維持安全狀態的時間長度。
- 反情報能力:評估失敗攻擊是否無意間洩露可供未來利用的訊號或系統行為。