移至主內容

美超微發佈基於全新NVIDIA HGX-2平台的超級服務器

NVIDIA HGX-2平台專為新一代人工智能設計,擁有16個Tesla V100圖形處理器(GPU),NVSwitch則利用超過 80,000個Cuda核心,為深度學習和 運 算工作負載,提供無與倫比的強大性能

台灣台北2018年5月30日電 /美通社/ -- 企業運算、存儲和網絡解決方案以及綠色運算技術領域的全球領導者美超微電腦股份有限公司(Super Micro Computer, Inc.) (NASDAQ: SMCI)今天宣佈,該公司成為首批採用NVIDIA®(輝達)HGX-2雲端服務器平台來開發全球最強大的人工智能(AI)和高性能運算(HPC)系統的公司之一。

美超微在2018年台灣GPU技術大會(GPU Technology Conference (GTC) Taiwan 2018)上推出白金贊助商展位。5月30日至31日,該大會在台北萬豪酒店(Taipei Marriott Hotel)舉行。

美超微總裁兼CEO梁見後(Charles Liang)表示:「為了幫助應對快速擴大的人工智能模型的規模——有些模型幾週就要培訓出來,美超微正在開發基於HGX-2平台、將讓性能提升一倍有餘的雲端服務器。HGX-2系統將會支持對複雜模型進行高效訓練。它能夠借助NVLink和NVSwitch,將16個互聯Tesla V100 32GB SXM3 GPU結合到一起,作為一個統一、運算速度達到2 Petaflops(每秒千萬億次)的加速器來開展工作,內存總量達到0.5太字節,提供前所未有的強大運算能力。」

從電腦自然語言到自動駕駛汽車,人工智能方面的快速發展已經讓各行各業都發生了轉變。為了支持這些能力,人工智能模型在規模上也呈爆炸性發展。在釋放新的科學觀點之際,高性能運算應用在複雜程度上面也呈現類似的發展態勢。

美超微基於HGX-2的系統將能為數據中心提供超集設計,加速人工智能和高性能運算在雲端上的發展。在經過調整優化以後,美超微的HGX-2服務器將能為快速模型訓練,提供最高水準的運算性能和內存。

NVIDIA副總裁、加速運算部門總經理Ian Buck說:「人工智能模型在複雜程度和規模方面均呈爆炸性發展態勢,因此研究人員和數據科學家需要達到新層次的GPU加速運算。HGX-2能夠支持為以更快的速度培訓先進人工智能處理這些巨大的新模型,同時也能在數據中心中節省大量成本、空間和能源。」

查詢美超微NVIDIA GPU系統產品線的詳細情況,請瀏覽https://www.supermicro.com/products/nfo/gpu.cfm