Gartner AI 深度偽造 驗證 身分認證

Gartner:企業將因為 AI 生成的深度偽造 無法起到可靠的隔離作用

2024-03-20
根據Gartner公司的預測,到2026年,30%的企業將因為人工智慧(AI)生成的人臉生物識別深度偽造攻擊而認為此類身分認證與驗證解決方案不再能夠起到可靠的作用。

Gartner研究副總裁Akif Khan表示,過去十年在AI領域出現的幾個拐點使創建合成圖像成為了可能。這些人工生成的真實人臉圖像被稱為深度偽造,惡意行為者可利用這個手段騙過生物辨識身分驗證或令其失效。其後果是,企業可能會因為身分認證與驗證解決方案無法分辨被驗證者的臉是真人還是深度偽造,而開始質疑它們的可靠性。

目前,使用人臉生物辨識技術的身分認證與驗證流程依賴於活體冒用攻擊測試(PAD)評估用戶的真實性。Khan表示,數位注入攻擊已經開始利用目前能夠通過AI生成的深度偽造,而當前定義和評估PAD機制的標準與測試流程並未涵蓋此類攻擊。

Gartner的研究表明,雖然活體冒用攻擊是最常見的攻擊載體,但注入攻擊(IAD)在2023年增長了200%。為防範此類攻擊,需要結合使用PAD、IAD與圖像檢測。

通過結合使用IAD與圖像檢測工具減少深度偽造威脅

為幫助企業防範能夠騙過人臉生物辨識技術的AI生成深度偽造威脅,資安長(CISO)與風險管理領導人必須選擇能夠證明自己具備超越當前標準的能力和計畫,並且正在對這些新型攻擊進行監視、分類和量化的廠商。

Khan表示,企業應該與專門投資於使用IAD和圖像檢測技術減少這種新型深度偽造威脅的廠商合作,開始制定最低的控制標準。

在制定戰略和最低標準後,CISO和風險管理領導人必須添加設備辨識、行為分析等額外的風險和識別信號,以便提高檢測到身分驗證流程受到攻擊的機率。

最重要的是,負責身分識別和存取權管理的安全與風險管理領導人應該行動起來,通過選擇能夠驗證真人的技術和落實防止帳戶接管的措施來降低AI深度偽造攻擊所帶來的風險。


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!