伺服器 Intel AMD NVIDIA 人工智慧 5G AI 高效能運算 HPC 邊緣運算 Edge Computing 物聯網 IoT 大數據 Big Data Milan Ice Lake Direct Liquid Cooling 液冷 軟體定義

抓緊開源硬體帶動白牌商機 著重敏捷、安全及經濟效益

伺服器世代加速更迭 視應用考量設計最適系統

2021-06-10
不只是軟體開發創新,伺服器硬體也早在十年前便已經走向開放的道路。2011年,Facebook發起主導開放運算計畫(Open Compute Project,OCP),並且提出OCP標準規範,也正式宣告了伺服器進入開放硬體時代,帶動一波開放規格的風潮。

 

擁抱開放對於IT產業來說可能不是一件新鮮事,不管是Linux、Hadoop、Spark還是OpenStack與Docker,在各個應用領域之中,歷年來都可以看到開放軟體的身影。然而,不只是軟體開發創新,伺服器硬體也早在十年前便已經走向開放的道路。2011年,Facebook發起主導開放運算計畫(Open Compute Project,OCP),並且提出OCP標準規範,也正式宣告了伺服器進入開放硬體時代,帶動一波開放規格的風潮。

OCP引領伺服器開放架構

而後,隨著Google、微軟等大廠紛紛加入支持OCP,並且不斷地擴充OCP標準,Form Factor也跟著被自行定義,舉例而言,Google伺服器要求以48V供電,而微軟則希望伺服器機櫃後面直接提供電源連接設計,並將I/O連接移至機櫃前方等等,從而產生更多不同的伺服器規格,簡單來看,OCP建立了通用硬體標準,但其實開創的是客製化市場,Form Factor還是由需求方來主導。

但也正是這個時機點,白牌伺服器開始崛起,技嘉網通事業群行銷技術支援處代副處長王建文觀察,過往市場主要是以品牌伺服器為主,但是雲端概念興起加上OCP標準規範推動,許多雲端服務供應商尋求更低成本方向思考,白牌伺服器的需求就應運而生,同時也讓品牌伺服器業者稍微淡出公有雲市場。

撇開伺服器品牌/白牌業者市場之爭,OCP計畫的成立也影響了伺服器的設計,轉往敏捷、安全以及經濟效益管控等面向發展。他指出,敏捷指的是架構設計的彈性,包含能否支援虛擬化。而安全指的是針對資料與架構的保護,處理器是否提供了加密安全機制也是發展的方向之一,例如AMD今年發表的新一代的處理器米蘭(Milan)更強化了安全功能,預估Intel在下一代處理器也會有所增進。「而經濟效益管控直白地說就是與成本有關,」王建文指出,企業對於成本的概念永遠是效能可以比前一代增加多少,或是新一代架構底下能不能較前一代的成本更低,而這往往也是伺服器在設計時會納入考量的一大因素。

從應用面全盤考量規劃

伴隨著新一代處理器發表,技嘉也跟進更新伺服器產品線,在Intel第三代Xeon可擴充處理器方面,推出20幾款新伺服器與伺服器主板,分佈在通用型的R系列(10款)、高效能運算H系列(3款)、人工智慧∕機器學習適用的G系列(4款)以及應用在邊緣運算的E系列,另外還有4款具備雙插槽的新型號伺服器,同時也分別針對企業、雲端、高效能運算、網路以及安全等領域的工作負載進行優化。

而支援AMD EPYC 7003系列處理器的伺服器則有70餘款,在效能均衡的R系列機架式伺服器,包含支援單處理器或雙處理器機種,共計有34款。高密度伺服器H系列共計有13款,其中3款為全新型號,分別為H282-ZC0、H282-ZC1與H282-Z60,採前抽式設計、每個節點都支援雙插槽處理器,另外有兩款H261-Z60與H261-Z61則可以透過韌體更新支援新一代處理器。高效能運算G系列伺服器則是廣泛更新既有機種,以支援AMD EPYC 7003處理器,共計近20款,其中包含G482系列可支援多達10張加速卡。除此之外,還包括1款W系列工作站伺服器、3款S系列、1款OCP系列伺服器與5款伺服器主機板。

其中在G系列伺服器中,包含了兩款已獲NVIDIA認證的伺服器,分別為G492-Z51以及G242-Z11。前者支援兩顆新一代AMD EPYC 7003系列處理器,32組DDR4記憶體插槽以及12組NVMe/SATA/SAS硬碟槽,並且可搭載8張雙插槽規格GPU、支援NVIDIA NVLink互連技術,可提供最佳效能與使用者體驗。而後者則可支援單顆AMD EPYC 7003系列處理器,可容納多達4張具有PCIe 4.0傳輸速度的GPU卡,以實現邊緣運算的即時處理需求。

他提到,在IT總體應用趨勢以及半導體晶片技術的演進下,未來伺服器世代的更迭將會更快,過往可能一至兩年才會換一次處理器,現在則是一年就是一個新的平台,甚至不到一年,新的處理器就會發表。「但伺服器在設計上的挑戰尚不只於此,各種不同應用領域,思考的面向也會有所不同,舉例而言,高效能運算伺服器除了考量運算條件之外,網路傳輸以及儲存也要有相關的搭配。而光是儲存模式就有許多種儲存媒體、介面以及傳輸的規格,對應到的RAID卡又不同,而在這些條件下又各自有不同的熱量產生,主機板設計需不需要加以變動以及驗證也是需要思考的方向。」

正因為不同的應用場域以及條件都攸關著伺服器的設計,因此技嘉在設計初期,便會從應用需求面進行全盤且完善的考量,「另外,我們也會協助企業從Platform、Application以及Form Factor等三個角度評估,如此才能真正找出適合企業工作負載需求的系統。」王建文說。

液冷技術克服散熱挑戰

近年來,在半導體元件愈來愈趨向智慧化的情況下,元件的功耗也愈來愈高,對於散熱的要求也不斷攀升,傳統運用風扇以及氣流走向帶走熱的作法,未來也極有可能會面臨瓶頸。目前業界普遍的作法是用液體散熱來克服這項挑戰。

「一般而言,液體相較於傳統空氣冷卻在熱傳導方面更有效率,故常常使用在一些高速運作發熱量較高的機器上,尤其是資料中心、或是進行大量運算的人工智慧伺服器當中。」他解釋,相較於空冷需要風扇協助散熱,去除風扇模組和省卻熱流設計得到的空間提升,便可大幅增加CPU、GPU密度,在有限空間中增加更多的運算效能,降低能耗的同時就表示可以得到更好的PUE值。

液冷技術(Liquid Cooling),顧名思義就是以液體作為熱量傳導機制的散熱方式,目前常見的液冷技術包含沉浸式液冷和直接液冷兩種方式,前者是以不導電的特殊電子工程液做為熱傳導媒介,將機器直接浸泡在液體裡進行散熱;後者則是利用水管輸送冷卻液體在伺服器中走一圈,透過導熱銅片將熱能帶走降溫,變熱的液體循環到外部後再轉換為冷卻液體或是蒸氣繼續循環利用。

技嘉網通事業群行銷技術支援處代副處長王建文(左)指出,不同的應用場域以及條件都攸關著伺服器的設計,因此技嘉在設計初期,便會從應用需求面進行全盤且完善的考量。右為技嘉網通事業群業務四處業務經理林碧慧。

王建文提到,直接液冷其實還可以分為「液對氣」以及「液對液」兩種作法,差別在於「液對氣」的方案能夠沿用機房空調設備,更適合想嘗試使用液冷式伺服器,但還不打算更改現有架構的資料中心,這種混合方案的好處是,氣冷式伺服器和液冷式伺服器能共存於相同的設施內。而「液對液」的方案,散熱功力更強,但使用範圍有限,只限於原先就有安裝液體冷卻管路的資料中心使用。「事實上,技嘉也早就與合作夥伴推出多種冷卻方案,例如與LiquidStack及3M公司合作提供雙相液體浸沒式冷卻解決方案,可大幅降低數據中心能耗,提高電力使用效率(PUE)。」

 


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!