Akamai AI 邊緣 網路

透過智慧化路由將AI工作負載分配至其邊緣、區域及核心基礎架構,以平衡延遲、成本與效能

Akamai 推出智慧編排方案 實現橫跨 4,400 個邊緣位置的分散式推理

2026-04-02
Akamai於人工智慧發展歷程中達成重大里程碑,推出全球首個NVIDIA AI Grid參考設計的規模化實作。藉由將NVIDIA AI基礎架構整合至Akamai的基礎設施,並運用其網路上的智慧化工作負載編排,Akamai旨在推動產業從孤立的AI工廠,邁向統一且分散的AI推理網格。

運算連續體:從核心到遠端邊緣

Akamai基於NVIDIA AI Enterprise構建,並利用NVIDIA Blackwell架構和NVIDIA BlueField DPU實現硬體加速聯網與安全,能夠管理橫跨邊緣和核心位置的複雜服務層級協議(SLA):

  • 邊緣(超過4,400個位置):為實體AI和自主代理提供快速響應時間。它將利用語意快取以及Akamai Functions(基於WebAssembly的運算)和EdgeWorkers等無伺服器功能,在使用者接觸點實現模型親和性與穩定效能。
  • Akamai Cloud IaaS與專用GPU叢集:核心公共雲基礎架構為大規模工作負載提供可攜性與成本節約,而由NVIDIA RTX PRO 6000 Blackwell GPU驅動的叢集則能實現高強度的後訓練與多模態推理。

NVIDIA全球副總裁 業務開發 電信部門Chris Penrose表示,新興的AI原生應用需要可預測的延遲和在全球規模上更佳的成本效益。透過NVIDIA AI Grid付諸營運,Akamai正在為生成式、代理式和實體AI構建連結的橋樑,將智慧直接轉移到資料所在之處,以解鎖下一波即時應用。

驅動下一波即時AI浪潮

Akamai已觀察到Akamai Inference Cloud在運算密集型、延遲敏感型產業中獲得強勁的初步採用:

  • 遊戲:工作室正在為AI驅動的NPC和即時玩家互動部署低於50毫秒的推理。
  • 金融服務:銀行依賴該網格,在客戶登入的關鍵時刻提供超個人化行銷和快速建議。
  • 媒體與影音:廣播業者使用分散式網路進行AI驅動的轉碼和即時配音。
  • 零售與商務:零售商正在採用該網路,用於店內AI應用和銷售點的員工生產力工具。

在企業需求的驅動下,該平台也已獲得主要技術供應商的認可,包括一項價值2億美元、為期四年的服務協議,用於在專為都會區邊緣企業AI基礎架構設計的資料中心內,建置一個數千GPU的叢集。

將AI工廠從集中式擴展至分散式

第一波AI基礎架構的特色是在少數集中化位置部署大規模GPU叢集,並針對訓練進行優化。但隨著推理成為主導性工作負載,且各行各業的企業都專注於構建AI代理,這種集中式模型正面臨與早期網際網路基礎架構在媒體傳遞、線上遊戲、金融交易和複雜微服務應用中所遭遇的相同擴展限制。

Akamai正透過相同的基本方法解決所有這些挑戰:分散式聯網、智慧編排,以及將內容與情境盡可能帶到數位接觸點附近的專用系統。其結果是改善了使用者體驗,並為採用該模型的企業帶來了更強的投資報酬率。Akamai Inference Cloud將此一經過驗證的架構應用於AI工廠,透過將密集運算從核心分配至邊緣,推動下一波的擴展與成長。

對企業而言,這意味著能夠部署具有情境感知和適應性響應能力的AI代理。對整個產業而言,它代表了AI工廠如何從孤立安裝演進為全球分散式公用事業的藍圖。


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!