服務熱線
0755-83647532
發表日期:2023-07-17 文章編輯:管理員 閱讀次數:
橫空出世的ChatGPT,在全球掀起生成式人工智能熱潮,“大模型+大算力”讓AI實現范式突破,也讓算力成為搶手資源。而在算力的背后,是數據中心和“電老虎”的競賽。
5月29日,在COMPUTEX2023(中國臺北國際計算機展)上,IT解決方案提供商Supermicro提出了兩個關鍵詞:加速和降耗。Supermicro采用Server Building Block Solutions服務器構建方法,整合Intel、AMD和NVIDIA的最新CPU及GPU技術,設計和制造服務器和存儲系統,以應對AI、云計算、5G以及從數據中心到邊緣計算的大量需求。
“我們的機架級液冷方案可以將數據中心的電力支出降低40%,并能加快上市時間,每月向全球發運4000機架,預計到年底將提高到5000以上。” Supermicro總裁兼首席執行官梁見后(Charles Liang)表示。
Supermicro已有產品組合可為人工智能工作負載和其他垂直領域提供支持。基于第四代Intel Xeon可擴展處理器和第四代AMD EPYC 處理器的單插槽和雙插槽機架安裝系統,提供1U、2U、4U、5U和8U規格,并支持1到10 GPU。此外還包括在8U機箱中支持20個NVIDIA H100 GPU的密度優化型SuperBlade系統,以及專門針對物聯網和邊緣環境設計的SuperEdge系統。最新發布的E3.S Petascale存儲系統在利用超大規模的人工智能數據集進行訓練時,其性能、容量、吞吐量、耐用性以及能效表現都較好。
在英偉達發布超大規模生成式AI加速平臺這一算力“殺器”的同一時間,Supermicro宣布,基于NVIDIA Grace CPU超級芯片的新產品系列將很快上市。這些新服務器均包含144個核心,雙CPU及900 GB/s 一致性接口,可運行高響應度的人工智能應用程序和需要極低延遲響應的應用程序。此外,CPU以500W TDP的速度運行,該系統將為云原生工作負載和下一代人工智能應用降低能耗。
NVIDIA超大規模和高性能計算副總裁Ian Buck表示:“面對嚴苛的客戶需求,NVIDIA與Supermicro快速為新的服務器設計帶來創新。隨著Supermicro采用Grace CPU 超級芯片的服務器上市在即,以及H100 GPU在全球范圍的使用普及,我們正在共同努力,將人工智能帶到廣泛的市場和應用中。”
生成式AI給算力帶來了巨大的挑戰,Supermicro的應對方案是GPU服務器集成雙CPU和多達8個NVIDIA HGX H100 GPU,并用液體冷卻降低運營成本。此外,Supermicro正在支持新的NVIDIA MGX參考架構,該架構將為一系列人工智能、高性能計算和Omniverse應用提供超過100種服務器配置。這種模塊化的參考架構包括CPU、GPU和DPU,適用于多代處理器。
Supermicro還將在廣泛的解決方案中納入最新的NVIDIA Spectrum-X網絡平臺。該平臺是第一個專門為提高基于以太網的AI云的性能和效率而設計的平臺。Spectrum-X建立在由NVIDIA Spectrum-4以太網交換機與NVIDIA BlueField-3數據處理單元(DPU)緊密耦合的網絡創新之上。這項突破性技術實現了1.7倍的整體人工智能性能和能源效率提升,同時在多租戶環境中實現了一致、可預測的性能。
目前,數據中心消耗的電力占到了全球電力需求的1%至1.5%,因此綠色計算對于數據中心至關重要。Supermicro機架級液冷解決方案可以大幅降低對傳統冷卻方法的需求。通過冗余和熱插拔電源和泵,機架上的所有高性能AI和HPC優化服務器都能夠得到有效冷卻,不用擔心電源或泵發生任何故障。該解決方案還為CPU和GPU量身定制了水冷板,相較于傳統設計能夠更有效地去除熱量。如果數據中心利用Supermicro技術將其PUE降低至近1.0,能節省高達100億美元的能源成本,相當于減少建造30座化石燃料發電廠。
機架級集成是數據中心運營商所需的另一項核心競爭力。要想給生產效率加速,就必須將隨時可用的全部機架及時交付給數據中心。Supermicro的 L11和L12服務器集群已通過全面測試并且進行適當配置,可以在必要時實現大規模液體冷卻。