CheckPoint Lakera Agentic AI RAG

企業加速AI採用 資安成為信任關鍵

Check Point宣布收購Lakera 強化端到端AI安全防護

2025-09-19
企業正以前所未有的速度,將大型語言模型(LLM)、生成式AI及自主代理(Autonomous Agents)等技術融入核心營運流程,創新的果實固然甜美,但其衍生的攻擊表面擴張,卻也成為資訊安全領域最嚴峻的挑戰。

傳統的安全思維與防護工具,在應對由AI驅動的新型態威脅時,已顯得力不從心。資料外洩、模型操控,乃至於由多個自主代理協作決策時所引發的未知風險,正迫使企業重新審視其安全策略。為了協助企業因應新興應用場景衍生的挑戰,全球資安解決方案供應商Check Point 近期宣布收購專注於代理式AI(Agentic AI)應用的安全平台Lakera,此舉不僅是單純的企業併購,更揭示了產業為應對AI時代威脅,正朝向整合式、端到端的原生安全架構演進。

當前AI應用的核心風險,已從過去的基礎設施或應用程式漏洞,轉移至模型、代理與資料本身的互動過程。在一個資料即是新型態可執行檔(Executable)、眾多AI代理相互溝通協作的「代理互聯網(Internet of Agents)」時代,傳統的邊界防護或特徵碼比對機制,幾乎無法有效偵測與攔截針對AI模型的攻擊。例如,惡意攻擊者可透過精心設計的提示詞注入(Prompt Injection)手法,繞過模型的安全限制,竊取敏感資料或執行非授權操作。同樣地,在檢索增強生成(RAG)架構中,若未能妥善保護其存取的知識庫,亦可能導致機敏資訊外洩。這些威脅發生於AI運作的即時執行期間(Runtime),對安全防護的即時性與精準度提出了極高的要求。

此次收購的焦點Lakera,正是為解決此類問題而生的AI原生安全平台。其技術核心在於提供即時的執行期間防護,這意味著它能在AI模型處理使用者輸入、生成內容、與外部工具互動的每一個環節,進行深度的安全檢測。其平台設計專為保護大型語言模型、AI 代理及多模態工作流程,能有效防禦提示詞注入、資料外洩及模型操控等威脅。更具體地說,Lakera的技術能夠在不顯著影響效能的前提下,達到超過98%的威脅偵測成功率,同時將延遲控制在50毫秒以內,並維持低於0.5%的誤報率,這些效能指標對於要求高效能與準確度的企業級AI應用至關重要。

此一高效防護能力的背後,源自於其獨特的持續性智慧防禦機制。Lakera平台由一個名為Gandalf的對抗性AI網路提供支援,該網路累積了超過八千萬個對抗性攻擊模式,並由專職的AI研究團隊持續更新,使其防護體系能夠不斷演化,始終領先於新興的AI威脅。這種持續性的紅隊演練與即時防護相結合的模式,確保了企業在部署AI技術時,其安全防護不會因為威脅手法的日新月異而輕易失效。此平台支援超過一百種語言,亦為全球化部署的企業提供了必要的保障。

Check Point透過此次整合,意圖打造業界首批完整的端到端AI安全堆疊。將Lakera的執行期間防護能力,與Check Point Infinity架構中既有的GenAI Protect、SaaS與API安全、先進資料外洩防護機制,以及基於機器學習的應用、雲端與端點防護等功能相結合。如此一來,企業便能獲得涵蓋AI完整生命週期的統一防護視野,從模型的開發階段、部署前的態勢評估,到上線後的即時運作,皆納入嚴密的安全監控與保護之下。這不僅是產品功能的擴展,更是安全理念的升級,象徵著企業在擁抱AI帶來的巨大業務價值的同時,也必須建立相應的信任與安全治理框架,方能行穩致遠。


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!