Agent2Agent A2A AI代理人 Google 語言模型

MCP提供工具/資料上下文 A2A負責多代理人流程協調

AI Agent開放協定漸完備 風險治理成當務之急

2025-07-21
Google正式發表Agent2Agent(A2A)協議,將其定義為「AI代理人的通用語言」,旨在讓由不同框架、模型或雲端/本地環境建置的代理人,能夠以標準化方式協同工作。A2A並非意圖取代Anthropic所推出的MCP開放協議,兩者聚焦面向不同、各為互補。

近期,Google正式發表Agent2Agent(A2A)協議,將其定義為「AI代理人的通用語言」。A2A旨在讓由不同框架、模型或雲端/本地環境建置的代理人,能夠以標準化方式協同工作。

Agent2Agent(A2A)協議奠定跨代理人互通的新里程碑

A2A發布當下即獲得50多家技術與顧問夥伴(如Atlassian、Box、Cohere、Salesforce、SAP、Accenture、McKinsey、PwC、KPMG等)共同貢獻規格,反映企業對多代理人互操作性的迫切需求。Google官方明確表示,A2A並非意圖取代Anthropic所推出的MCP開放協議,兩者聚焦面向不同、各為互補。

‧MCP:為「模型↔資料/工具」建立安全橋接,讓LLM能即插即用各式資料來源(如GitHub、SQL、CRM等)。

‧A2A:專注「代理人↔代理人」溝通,讓具備不同背景知識、角色或職能的代理人能協同完成複雜工作流程。Google亦在Agentspace與Vertex AI內建A2A支援,讓使用者可於同一UI中調度多個專業AI代理人。

MCP提供工具/資料上下文,A2A負責多代理人流程協調,兩者結合後可形塑「資料→單一代理→多代理協作→回傳結果」的完整閉環。

A2A演進朝「規格成熟、企業實戰、生態擴展」等三個層次同步推進

首先,在規格層面,A2A目前處於0.x草案階段,Google透過GitHub持續收集社群回饋並迭代文件、範例與測試案例;官方文件強調「待參考實作與測試套件達到Production-Ready等級後,才會發布 1.0」,代表今年下半年的重點將是完善相容性測試與安全驗證機制,以確保不同框架實作能無縫互通。

其次,在企業實戰層面,Google計畫於未來數個月為Vertex AI的Agent Engine加入更進階的除錯、壓力測試與「代理人沙盒模擬環境」,並開放代理人直接執行程式碼,協助開發團隊在正式部署前就能驗證多代理協作於複雜情境下的可靠度。

最後,在生態擴展層面,A2A相容代理人將可直接上架Google Cloud全新推出的AI Agent Marketplace,讓企業能像採購SaaS一樣挑選、購買並管理第三方代理人;首波已由Accenture、Deloitte、UiPath等夥伴提供解決方案,Google也同步宣布擴大產業聯盟與行銷獎勵機制,藉此加速生態系正向循環。

綜合觀察,A2A的短期關鍵在於「測試與治理」奠定穩固底層架構;中期聚焦「企業級可觀測與安全」落地;長期透過Marketplace與多語言SDK普及化,真正讓跨雲、跨框架的AI代理人協作成為企業標配。此外,A2A解決「多代理孤島」的協作斷層,而MCP則填補「模型與外部資源」的資料斷層。對企業而言,兩者結合能大幅降低專案建置與維護成本,並提高AI工作流程的延展性與可觀測性。

未來值得關注的是安全性標準,特別是代理自主決策的風險評估,以及不同雲服務商是否會形成標準協定的競合大戰。

AI代理人的能力越強大,潛在風險隨之升高

AI代理人系統雖具備推動經濟成長、科技創新與健康福祉的潛力,但其能力日益強大,也帶來前所未見的風險。與傳統聊天機器人不同,代理人可存取外部工具、自主執行多階段任務,甚至進行金融交易等高風險操作,進一步擴大誤用與失控風險。

惡意使用方面,代理人可能被用來散播假訊息、發動大規模網攻、協助軍民兩用的科學研究(如設計生物病原體)。即使模型內建防護機制,研究也發現新進的模型可輕易地被越獄,執行非法任務。另一方面,代理人若出現非意料中的失誤,像是誤判、錯誤決策、錯誤建議等,可能對高風險環境(如智慧交通、自動駕駛、醫療診斷、財務管理)造成致命影響。

更甚者,隨著代理人被廣泛授權決策,人類可能逐漸失去對系統的理解與掌控,進一步導致權力下放與技術過度依賴,甚至出現自主複製或對抗人類控制的情境。

除了個別風險外,AI代理人也可能引發更廣泛的系統性衝擊。例如,大量導入AI代理人可能加速人類勞工的失業與經濟結構轉變;而掌握AI技術的開發者、企業高層與投資人將站在食物鏈的制高點,掌控政策與資源分配,引發權力高度集中。更嚴重的是,代理人也可能被政府用於強化監控、資訊封鎖與鎮壓異議,削弱民主力量的制衡。

此外,AI代理人能夠即時連結數百萬用戶,快速引導消費者更換服務提供者,可能導致市場劇烈波動與連鎖倒閉事件,造成類似銀行擠兌的金融不穩定。

由於代理人可執行程式碼、控制設備、保留記憶,任何介面或API的安全漏洞都可能成為攻擊途徑,加劇資安風險,特別是在多代理人系統中,若一個代理人被攻破,就可能感染其他代理人,擴大攻擊面及危害範圍。

AI代理人大爆發,有賴全新的治理思維與行動策略以避免全面失控的風險

代理人治理(Agent Governance)指的是在AI代理人能以相當於甚至超越人類水準執行各式任務的未來,透過制度、技術與政策手段引導其發展、控管其影響,並管理代理人為運作所需的工具與「行動能力」。

相較於一般AI治理,代理人治理必須面對額外艱鉅的挑戰。代理人可在使用者不知情的情況下獨立完成複雜行動、能直接呼叫外部系統或與其他代理人互動,並在長時間目標導向運作下暴露出資訊不對稱、權責歸屬與多代理協同失靈等風險。

因此,現行針對聊天機器人或單一模型的安全、透明與責任框架,須重新檢視並強化,以因應AI代理人可能引發的失控、串謀以及連鎖性失效(Cascading Failure)等全新情境。

要有效治理AI代理人,須建立涵蓋其全生命週期的評估、監管與利益分配機制:包括開發前的能力預測與多代理模擬測試、新型態的威脅建模,部署中的行為監測、緊急停機與回溯機制,以及針對高度自主決策所衍生的產品責任與監管措施。

同時,政策應鼓勵「差異化技術發展」,優先推動有利公共安全與防禦的代理人應用,並規劃普及化或利益共享措施,以避免生產與權力高度集中。 由於AI代理人治理研究仍屬啟蒙,現階段亟需更多跨學科研究、資金投入與利害關係人協作,才能在AI代理人大規模普及之前,建立可行且具韌性的治理架構。

<本文作者:本文作者朱南勳現任資策會MIC主任,專業於軟體與通訊產業研究,長期關注前瞻軟體應用與通訊技術發展趨勢。曾於緯創資通公司擔任產品經理、趨勢科技公司擔任市場競爭力研究員,負責新產品認證開發與國際電腦大廠專案,並曾任經濟部技術處5G辦公室副主任。資策會產業情報研究所(MIC)長期觀測高科技產業市場情報與發展趨勢,是臺灣資通訊產業與政府倚重的專業智庫。>


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!