Supermicro AI 機器學習 ML 機櫃 儲存 儲存伺服器

提供能支援可擴充式AI工作負載所需的龐大資料容量和高效能資料頻寬

Supermicro 推適用 AI 儲存的機櫃級全方位解決方案

2024-02-02
Supermicro推出適用於AI和機器學習(ML)資料存取的完整優化解決方案,涵蓋從資料收集到高性能資料傳輸的各個環節。

此全新解決方案能透過將GPU資料傳輸管道完全利用,最大程度縮短AI價值實現時間。在AI訓練方面,該解決方案可收集、轉換大量PB級原始資料,並載入到企業AI工作流程管道。這種多層式Supermicro解決方案通過證實,可在生產製造環境中為人工智慧營運(AIOps)和機器學習營運(MLOps)提供PB規模級資料量。Supermicro的多機櫃級解決方案旨在降低落地風險,讓組織能更快速地訓練模型,並迅速將處理後的資料運用到AI推論。

Supermicro總裁暨執行長梁見後表示,透過由每機櫃20 PB高效能快閃儲存容量所驅動,並搭載四個專為應用最佳化的NVIDIA HGX H100 8-GPU的氣冷伺服器或搭載八個NVIDIA HGX H100 8-GPU的液冷伺服器,企業能以機櫃規模加速AI和ML應用運行。此項解決方案能為每個儲存叢集提供270 GB/s的讀取吞吐量和390萬IOPS做為最低部署,並輕鬆擴大至數百PB的規模。藉由使用具有PCIe 5.0與E3.S儲存裝置,以及WEKA Data Platform軟體的最新Supermicro系統,這項通過場域測試的機櫃級解決方案,將可為使用者帶來AI 應用效能的大幅提升。有了此項適用於AI訓練的全新儲存解決方案,客戶將能完全發揮我們最先進GPU伺服器機櫃級解決方案的使用潛能,進而降低總擁有成本(TCO)並提高AI效能。

為了使GPU有成效地運行,具備低延遲、高頻寬資料處理效能的GPU伺服器必須要能存取用於大規模AI訓練運行的未結構化PB量級資料。Supermicro擁有基於Intel和AMD技術的廣泛儲存伺服器產品組合,是AI管道必不可少的要素。這些產品包括Supermicro Petascale All-Flash儲存伺服器,其中每部伺服器擁有983.04 TB的NVMe Gen 5快閃資料容量,可提供高達230 GB/s的讀取頻寬和3,000萬IOPS。本解決方案還包括適用於容量物件層級並具備90個儲存硬碟槽的Supermicro SuperServer儲存伺服器。


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!