生成式AI 資安 隱私 Cybersecurity 駭客攻擊

當AI遇見資安 重新定義產業攻防賽局

生成式AI衍生資安疑慮 企業以CPR安全模型因應

2024-01-29
AI賦能科技的新浪潮中,企業的資安思維必須跟上新時代的腳步,當前諸多產業已經針對AI資安化、資安AI化,規劃出一套具備保密性、隱私性、穩健性的安全模型,訴求企業能從資安事件中安全地存活下來並永續經營與發展。

在AI賦能科技的新浪潮中,企業的資安思維必須跟上新時代的腳步,當前諸多產業已經針對AI資安化、資安AI化,規劃出一套具備保密性、隱私性、穩健性的安全模型,訴求企業能從資安事件中安全地存活下來並永續經營與發展。在產業資安領域中的攻防賽局內,AI已是不可或缺的一部分,甚或全面影響並改變資安環境樣貌,驅使產業生態版圖產生位移。

AI賦能資安在攻守兩端的法力競賽

AI賦能資安的產業定義,基本上有兩個脈絡,其一為AI for Cybersecurity,其二為Security of AI。在AI for Cybersecurity的層次,面對AI的快速發展,企業目前除了已可以用半自動化甚或全自動化的方式進行資安的防禦部署外,更能採用可視化的功能,做即時性、預測性的智慧化的分析。但由於許多決策,仍須仰仗專家的判斷,才更能有效地執行AI的相關建議,無論是在遭受駭客攻擊的事前、事中、事後的辨析。畢竟AI的魔法再怎麼神奇,亦有其侷限性,特別是在資安的應用上,亦只是扮演「輔助」的角色,絕不可能反客為主,一如飛機上的電腦自動駕駛系統之於機師,或醫院的高科技醫療設備對醫生的意義。所以,人與AI的協作與系統介面優化,更是資安的關鍵議題之一。

至於在Security of AI的面向,則是有關AI的系統規格,如何被驗證,以及如何確保AI的效率、安全、穩健性、公平性等;亦包括AI所做的決策是否能夠被信任。畢竟假設遭遇對立式攻擊,就會需要新興賦能科技,儘管整體情境及所發生的邏輯不會有太大的變動。

而AI系統本身的資安更已提升為國安的層面,各國除了積極投入AI資通安全標準暨合規的制定外,更將之視為國家發展策略的重要環節,國際間悄然展開一場誰都無法置身事外的另類軍備競賽。所以,涵蓋AI賦能的資訊軟體暨系統,甚至整個供應鏈的安全,能否被信任,也是資安另一個重點課題。

企業部署生成式AI所產生的風險

隨著雲端運算、萬物聯網與未來通訊技術的快速發展,IT、OT、CT結合AI分析機制,應用在各種場域的資通安全產品暨服務,為資通安全產業開創出值得期待的未來與龐大商機。另一方面,「生成式人工智慧(AIGC)」平地一聲雷,除讓企業導入生成式AI的應用場景,及創新商模如雨後春筍般蓬勃發展,更在ChatGPT發酵下成為市場關注焦點;但網路的無所不在同樣也讓資安風險急速擴大。產業專家更歸結出企業導入生成式AI的資安風險,以字首六個英文字母所組成的「恐懼症(PHOBIA)」,凸顯產業的CIOs、CISOs對這項新興技術的戒慎恐懼與戰戰兢兢。

隱私(Privacy)

生成式AI可能處理大量資料,包括個人資訊及機敏內容。建議企業在布局此類AI系統時,需要確保這些資料得到妥善保護,以防止未經授權的資料存取或洩漏。產業普遍擔心這些AI模型可能不當使用資料,侵犯個人隱私權。

幻覺(Hallucinations)

生成式AI在生成文本、圖像、影片、語音等方面獲得了令人印象深刻的成就,但這些模型有時也會生成虛假、不真實的內容。建議企業在使用生成式AI時,需要警惕模型可能產生的幻覺或誤導性資訊,這可能對決策及溝通造成負面影響。

主觀傾向(Opinionated)

生成式AI受到其機器學習(ML)時訓練資料的影響,可能會表現出主觀傾向。這些模型可能在生成內容時顯現出特定的觀點或偏見,而非客觀中立的立場。建議企業使用這些模型時,需要注意其可能傳遞的主觀偏見,以避免引發相關爭議或不良影響。

黑盒子(Blackbox)

生成式AI模型通常就是一種「黑盒子」,意即難以理解其內部運作的過程和原因。企業在使用這些模型時,可能難以解釋模型為何生成特定的內容,這可能導致缺乏透明度及可解釋性,使得難以審查和追溯模型的行為。

侵權(Infringement)

使用生成式AI所創建的內容,很可能與他人的智慧財產權或版權相衝突。建議企業需要確保所生成的內容不侵犯他人的權益,並遵守智慧財產權相關的法律、法規,以免因版權、侵權等問題面臨法律的風險。

攻擊(Attack)

生成式AI可能被惡意用於創建虛假資訊、欺詐性內容或惡意攻擊。建議企業導入這些模型時,需要注意是否被用於網路攻擊、社群媒體操縱等不當用途,並實施如資安監控中心(SOC)、安全性資訊與事件管理(SIEM)、SOAR(Security Orchestration, Automation, and Response)等相對應的監控與防範措施。

矛與盾的對決:利用AI攻擊(紅隊)vs AI防禦(藍隊)

目前產業已經針對AI資安化、資安AI化,規劃出一套CPR安全模型,包括系統、模型及資料。其中英文字母C是代表「保密性(Confidentiality)」,涉及模型參數、特徵(Feature)等;P則是象徵「隱私性(Privacy)」,如從參數中被反推出來的人臉特徵;R則是「穩健性(Robustness)」,這當中包括完整性(Integrity)及可用性(Availability)。三者加起來也可稱為「心肺復甦術(CPR)」,其實正代表AI需要CPR,企業才能從資安事件中安全地存活下來並永續經營與發展。 此外,當今黑色產業鏈中,已經能夠利用ChatGPT編寫一些網路釣魚誘餌,並且希望它可以用於進行更真實的交互式對話,以破壞商業電子郵件,甚至攻擊Facebook Messenger、WhatsApp或其他聊天應用程式。但也由於ChatGPT不會直接編寫勒索程式碼,所以當描述了勒索的策略、技術和過程,並沒有描述如何寫勒索程式碼。打個比方,就像一台3D列印機,不會「列印槍枝」,但如果需求方要求並下指令的話,它會很樂意一起列印槍管、彈匣、握把和扳機。

當我們回顧網際網路的發展歷程時,ML及AI也已經存在多年,AI和ML將是使我們能夠預防威脅的基礎,現在我們看到駭客威脅行為者也利用相同的工具進行攻擊。因此,當考慮網路安全的下一次演進時,產業真正談論的幾乎是AI魔法與AI法術在某些方面的對決(矛與盾的對決,亦即AI攻擊面 vs AI防禦面),亦可以利用這些工具來創造產業進步的動力。 在AI賦能科技的新浪潮中,企業的資安思維必須跟上新時代的腳步,跳脫特徵工程的限制,善用AI賦能科技來淘金;更須了解到AI終將成為資安的一部分,甚至全面影響並改變整體資安環境的樣貌、衝擊產業生態版圖的位移。

<本文作者:童啟晟現為資策會MIC資深產業分析師>


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!