隨著AI運算熱潮持續升溫,資料中心的散熱壓力正急速攀升。現今高效能伺服器單機功耗動輒達2,000至3,000瓦,為支撐多顆GPU的高速運算,系統熱能密度屢創新高。
這對AI資料中心而言,不僅考驗硬體效能極限,更讓散熱設計成為穩定營運的關鍵要素。當傳統散熱機制已無法有效帶走高密度熱量,液冷技術遂成為新世代伺服器的標準配置,不僅能顯著提升散熱效率,也為未來高功率運算奠定更永續的基礎。
導入液冷並不代表原有的水冷或氣冷系統就能完全被取代。事實上,仍有約20%至30%的熱負載需依賴氣冷處理。真正的挑戰在於如何在液冷與氣冷之間取得平衡,讓兩者在不同熱區協同運作。
在不同場域中,如高效能運算實驗室、半導體製造廠及雲端資料中心,其運算密度、散熱需求與伺服器架構皆有差異。冷卻設計因此不僅需兼顧氣流與液流,更必須考慮電力與水路佈局,這正是AI資料中心在基礎設施部署上與傳統機房最大差別所在。
另外,散熱效率並非僅取決於冷卻方式,冷卻溫度設計同樣關鍵。傳統機房的冰水機通常將冷卻水降至7~12°C,但AI晶片的最佳運作溫度約為40°C。若仍以低溫冷卻方式運行,反而需額外加熱水溫,造成能耗浪費,形成冷卻系統的能效黑洞。因此,冷卻系統設計思維也必須從「降溫」轉向「整體能源最佳化」,讓散熱與永續兼容。
以施耐德電機與Motivair聯手推出的端對端液冷解決方案為例,涵蓋液冷與氣冷基礎設施,包括CDU、RDHx、HDU、動態冷板與冰水機,並結合軟體與專業服務,全面滿足超大規模及高密度資料中心的功率與GPU熱負載需求。該方案支援液對液與液對氣、機架式與地面式等多種配置,並能靈活整合既有空冷系統,協助企業在不大幅更動整體機房架構的前提下,逐步升級為混合冷卻模式。
進一步搭配施耐德電機EcoStruxure Pod架構,導入ETAP與數位孿生技術,可在設計階段即模擬熱負載、優化機櫃佈局,並採用N+1或N+2冗餘設計,確保系統在維護或異常時仍能穩定運作。此架構不僅能高效部署,更可複製標準化設計,減輕IT/OT工程師的規劃與維運負擔。