AI-Ready基礎架構 NVLink 人工智慧 深度學習 機器學習

HPE整合軟體 推AI就緒伺服器

2018-08-27
為了協助企業更快實現人工智慧應用,近期IT基礎架構的供應商紛紛投入AI-Ready基礎架構研發,HPE Apollo 6500 Gen10便是新一代專為深度學習與高效運算而設計的伺服器,最高可配置8張GPU加速器,並且提供PCIe或是SXM2(NVLink)兩種介面選項。
運用新興科技尋求市場新契機已經成為全球企業亟需面對的課題,許多企業對於人工智慧(AI)的運用甚感興趣,也進而帶動AI市場發展。根據國際研究暨顧問機構Gartner調查,2018年全球與人工智慧相關的市場規模總計將達1.2兆美元,較去年增加70%。預估到了2022年,人工智慧相關市場規模估計將達到3.9兆美元。

為了協助企業更快實現人工智慧應用,近期IT基礎架構的供應商紛紛投入AI-Ready基礎架構研發,舉例而言,HPE Apollo 6500 Gen10便是新一代專為深度學習與高效運算而設計的伺服器,最高可配置8張GPU加速器,並且提供PCIe或是SXM2(NVLink)兩種介面選項。

HPE亞太區企業事業群Hybrid IT事業處AI/HPC資深技術經理沈仲杰指出,相較於前一代HPE Apollo 6500 Gen 9僅支援PCIe介面的GPU卡,新一代HPE Apollo 6500 Gen10可同時支援PCIe與SXM2介面,但目前仍不能混用。「企業可依工作負載的需求來選擇,如果運算的過程中,各GPU之間的溝通需要很頻繁,那麼就選擇SXM2介面,會有較好的表現,若是原先就規劃單一GPU只針對單一運算,那麼選擇PCIe介面即可。」


▲ HPE Apollo 6500 Gen10是新一代專為深度學習與高效運算而設計的伺服器。

值得留意的是,GPU雖然有助於高效運算,但同時也會帶來散熱以及電源供應的挑戰。因此,HPE Apollo 6500 Gen10除了有5個雙風扇模組,並且在350W的加速器上加裝大量的散熱片之外,電源供應器也是以2+2的方式提供備援電力,而單一電源可提供2,200W的電力。

HPE台灣資深產品經理郭裕昇表示,HPE不只提供硬體選項,為了協助企業優化配置,並且加速實現人工智慧,HPE實驗室的人工智慧團隊也投入相關研究,發表HPE深度學習Cookbook。這是由AI團隊所構建的工具集,可針對不同的機器學習、深度學習的演算法的軟硬體環境給予參考架構設計與優化建議,甚至將訓練模型需要的套件以容器技術打包,只要部署所需的容器套件,就可以運行在HPE Apollo 6500的平台上。

「HPE也累積許多跨國企業的參考架構,例如美國、日本、新加坡、韓國的企業案例就可以拿來做為參考,如此,企業便可以節省人工智慧的建構時間,不用再像傳統作法一樣,從設備採購、程式撰寫、訓練模型都要土法煉鋼才能完成。」

不同於資料庫,企業可以很明確地描述出需求,例如線上交易處理(OLTP)要求須在幾秒鐘內處理多少筆交易,因此可以很容易地Sizing出硬體規格的需求;但人工智慧至目前為止,並沒有標準的判斷依據,大多數的情況都是必須與企業的IT與AP部門進行討論後才能決定,或者先從小規模開始試行,先驗證訓練模型適不適合解決問題,當小規模驗證可行之後,才有可能擴大。

他強調,雖然台灣在人工智慧領域多半還是少量的運用,但是身為AI-Ready基礎架構供應商,HPE有責任提供完整的解決方案,HPE Apollo 6500 Gen10可提供高達125 Tflops的單精確度計算性能,可滿足企業高效能運算需求,大幅節省深度學習系統的培訓時間。


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!