大型語言模型(LLM)的強大威力,在不久前才藉由ChatGPT的初登場為人所知,然而,在短短數年內我們所使用的生成式AI已從單純的聊天機器人進化成由高階推理模型驅動的AI代理。生成式AI的創新速度正迫使企業加速重新思考如何建置與運行新一代的應用程式,以及支持這些AI代理所需的基礎架構。
雖然大多數AI模型與代理源自雲端,但使用它們的生成式AI應用程式必須具備「隨處運行」的能力。對於企業而言,不僅需要調整開發應用程式的方式,也代表所有環境都必須具備正確的基礎架構。
生成式AI的成功,除了GPU外,更依賴能讓應用程式穩定、安全且高效運行的基礎架構軟體堆疊。過去數十年,基礎架構軟體已能將運算、儲存與網路資源虛擬化為虛擬機器(VM),提升硬體利用率與抗災韌性,進而實現自動化運作,並為開發者實現自助式服務。此時期的基礎架構現代化,是以通用型x86伺服器取代專用硬體。
隨著新一代應用程式轉向Linux容器後,開發者偏好在公有雲存取微服務以加速開發。這種「維運人員建構虛擬化架構」與「開發人員需要容器化架構」之間的落差,促成了DevOps的普及。開發維運者開始利用Kubernetes,在虛擬機器接管自己的容器化基礎架構。
然而,對於資深維運人員來說,DevOps模式存在許多可預見的挑戰。維運企業級基礎架構是一項專業工作,由於Kubernetes在早期尚不成熟,加上開發者多數更專注於開發應用而非管理架構,導致DevOps在企業內部經常出現破碎化的容器架構。
面對這種困境,企業應建立專門的平台工程團隊來負責營運生產級的Kubernetes基礎架構與平台服務,與現有的VM維運團隊協作。同時,該團隊應能管理雲端原生應用程式中的各類資料,以確保效能、治理與合規。
在可預見的未來中,所有新的生成式AI應用程式都將建構在容器與微服務上,同時必須能在本地端與邊緣運行,並快速安全地存取數據。2025年的現代化基礎架構已超越了單純的硬體自身,企業需要規劃如何以具韌性、安全且節省成本的方式運行容器化的AI應用程式與模型,才能真正發揮生成式AI創新的龐大效益。
<本文作者:劉國龍現為Nutanix台灣總經理>