Akamai AI 邊緣 網路

透過智慧化路由將AI工作負載分配至其邊緣、區域及核心基礎架構,以平衡延遲、成本與效能

Akamai 推出智慧編排方案 實現橫跨 4,400 個邊緣位置的分散式推理

2026-04-02
Akamai於人工智慧發展歷程中達成重大里程碑,推出全球首個NVIDIA AI Grid參考設計的規模化實作。藉由將NVIDIA AI基礎架構整合至Akamai的基礎設施,並運用其網路上的智慧化工作負載編排,Akamai旨在推動產業從孤立的AI工廠,邁向統一且分散的AI推理網格。

此舉標誌著Akamai於去(2025)年底推出的Inference Cloud演進過程中的重要一步。作為首家將AI Grid付諸營運的企業,Akamai正部署數千個NVIDIA RTX PRO 6000 Blackwell Server Edition GPU,提供一個平台,使企業能夠以本地運算的即時響應性和全球網路的擴展規模,運行代理式AI(agentic AI)與實體AI(physical AI)。

Akamai營運長兼雲端技術集團總經理Adam Karon表示,AI工廠是專為模型訓練和前沿模型工作負載而建的,而集中式基礎架構將繼續為這些應用場景提供最佳的token經濟效益。但即時影像、實體AI,以及高度並行的個人化體驗,要求在接觸點進行推理,而非往返於集中式叢集。我們的AI Grid智慧編排為AI工廠提供了一種向外擴展推理的方式,利用曾徹底改變內容傳遞的相同分散式架構,將AI工作負載路由至4,400個位置,在適當的時間、以適當的成本完成任務。

『Token經濟學』的架構

AI Grid的核心是一個智慧編排器,作為AI請求的即時調度者。Akamai將其應用程式效能優化的專業知識應用於AI,此工作負載感知的控制平面透過顯著改善每個token的成本、首字響應時間(time-to-first-token)和吞吐量,來優化「token經濟學。

Akamai的一大差異化優勢在於,客戶可透過其龐大的全球邊緣網路,存取經過微調或稀疏化的模型,這為長尾AI工作負載提供了巨大的成本和效能優勢。例如:

  • 規模化成本效益:企業可透過自動將工作負載匹配至適當的運算層級,大幅降低推理成本。編排器應用語意快取和智慧路由等技術,將請求導向適當規模的資源,將高階GPU運算週期保留給真正需要的負載。其底層由Akamai Cloud提供支援,該雲端基於開源基礎架構建置,並提供慷慨的資料傳輸額度,以支援大規模、資料密集的AI作業。
  • 即時響應能力:遊戲工作室可提供AI驅動的非玩家角色(NPC)互動,在毫秒內維持玩家的沉浸感。金融機構能在使用者登入至首頁畫面的關鍵時刻,執行個人化詐欺偵測和行銷推薦。廣播業者能即時為全球觀眾轉碼和配音內容。這些成果均由Akamai全球分散式邊緣網路驅動,該網路擁有超過4,400個配備整合式快取、無伺服器邊緣運算和高效能連線的位置,能在使用者接觸點處理請求,繞過依賴源站的雲端所帶來的往返延遲。
  • 核心層級的企業級AI:大型語言模型、持續後訓練和多模態推理等工作負載,需要只有專用基礎架構才能提供的持續性高密度運算。Akamai由NVIDIA RTX PRO 6000 Blackwell Server Edition GPU驅動的數千個GPU叢集,為最繁重的AI工作負載提供集中的強大運算能力,以集中式規模補充分散式邊緣。

!此為分頁標誌前台不顯示!


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!