メインコンテンツに移動

Supermicro、NVIDIA HGXおよびPCIeベースのH100 8-GPUシステムを発表AIトレーニング、ディープラーニング、HPC、ジェネレーティブAI、メタバースを加速

NVIDIA HGX H100システム、L40、L4 GPU、および OVX 3.0システムをサポートするクラウドからエッジまでの包括的なシステムポートフォリオ

カリフォルニア州サンノゼ、2023 年 3 月 24 日 -- Super Micro Computer, Inc. (Nasdaq: SMCI)は、クラウド、AI/ML、HPC、ストレージ、5G/Edge、グリーンコンピューティングをリードする、トータルITソリューションプロバイダーです。同社は、本日、最新のNVIDIA HGX™ H100 8-GPUシステムをはじめ、複数の最新GPUサーバーの出荷を開始したことを発表しました。SupermicroのGPUサーバーは、エッジからデータセンターまで、新しいNVIDIA L4 Tensor コア GPUにも対応し、幅広いアプリケーションに適合します。

Supermicroの社長兼最高責任者(CEO)であるチャールズ・リアン(Charles Liang)は、次のように述べています。「Supermicroは、8U、6U、5U、4U、2U、1Uフォームファクターのサーバー、ワークステーション、SuperBladeシステムなど、新しい NVIDIA H100 GPU を含め、全ての最新GPUに対応する、業界で最も包括的な GPU システムのポートフォリオを提供します。当社の新しい NVIDIA HGX H100 Delta-Next サーバーを導入することで、お客様のAIトレーニングアプリケーションでは前世代と比較して、9倍のパフォーマンス向上を期待できます。当社のGPUサーバーは、冷却ファン速度を抑え、ノイズレベルを低減し、消費電力を削減する、革新的なエアフロー設計を採用しているため、総所有コスト(TCO)を削減できます。さらに、データセンターの将来性を高めたいと考えているお客様には、完全なラックスケールの液体冷却オプションを提供します。」

Supermicroの最も強力な最新の Supermicro 8U GPU サーバーは、NVIDIA HGX H100 8-GPUを搭載し、AI、ディープラーニング、機械学習、HPCワークロード向けに最適化されています。また、最速のNVIDIA NVLink® 4.0テクノロジー、NVSwitch™ インターコネクト、NVIDIA Quantum-2 InfiniBandおよびSpectrum®-4イーサネットネットワークを活用した、最速のGPU間通信を実現し、大規模AI処理の障壁を突破します。さらに、Supermicroは、CPUとGPUのダイレクト接続/シングルルート/デュアルルートの選択オプション、標準ラック およびOCP DCラック構成でのAC および DC 電源の対応、フロントI/OまたはリアI/Oモデルなど、GPUサーバーのパフォーマンスを最適化する柔軟な構成を提供します。Supermicro X13 SuperBlade® は、8Uエンクロージャーに最大20枚のNVIDIA H100 Tensor コア PCIe GPU、または、40枚のNVIDIA L4 GPU を搭載します。また、6Uエンクロージャーでは、最大10枚のNVIDIA H100 Tensor コア PCIe GPU または 20枚のNVIDIA L4 Tensor コア GPUを搭載できます。これらの新しいシステムは、NVIDIA AIプラットフォームのソフトウェア レイヤーである NVIDIA AI エンタープライズの実行に理想的な、最適化されたアクセラレーションを提供します。

これらのGPUサーバーの多くは、液体冷却もサポートしています。さらに、Supermicroは、オフィスや、ホームオフィス環境に最適で、部門や組織単位で展開可能な、デュアルCPUと4基の水冷NVIDIA A100 Tensor コア GPU を搭載した、液冷AI開発向けシステム(タワー型、または、ラックマウント構成に対応)を発表します。

Supermicro のシステムは、新しい NVIDIA L4 GPU をサポートしており、前世代と比較して何倍もの処理性能とエネルギー効率の向上を実現しています。また、エンタープライズ、クラウド、エッジにおける、AI推論、ビデオストリーミング、仮想ワークステーション、グラフィックスアプリケーションにも効果的です。NVIDIAのAIプラットフォームとフルスタックアプローチにより、L4は、レコメンデーション、音声ベースのAIアバターアシスタント、チャットボット、ビジュアル検索、コンタクトセンターの自動化など、幅広いAIアプリケーションの推論に最適化され、的確にパーソナライズされたエクスペリエンスを提供します。メインストリームサーバー向けの最も効率的なNVIDIAアクセラレータとなるL4は、最大4倍のAIパフォーマンス、エネルギー効率の向上、AV1エンコード/デコードを支える3倍以上のビデオストリーミング容量と効率を備えています。推論と視覚化のための L4 GPUの多用途性と、小型でエネルギー効率に優れたシングルスロット、薄型、低消費電力の72Wフォームファクターにより、エッジロケーションを含むグローバル規模の展開に最適です。

NVIDIA のアクセラレーテッドコンピューティング製品ディレクターであるデイブ・サルバトーレ(Dave Salvator)氏は、次のように述べています。「Supermicroのサーバーに、新しいNVIDIA L4 Tensor コア GPUの比類のないパワーを装備することで、ユーザーはワークロードを効率的かつ持続的に加速できるようになります。メインストリームの導入向けに最適化されたNVIDIA L4は、72Wの低電力エンベロープで動作する薄型フォームファクターで、エッジでのAIパフォーマンスと効率を新たな高みへと導きます。」

Supermicroの新しいPCIeアクセラレーションソリューションは、3Dの世界、デジタルツイン、3Dシミュレーションモデル、産業用メタバースの構築を強化します。さらに、Supermicroは、前世代のNVIDIA OVX™ システムのサポートに加えて、新たに、4枚のNVIDIA L40 GPU、2枚のNVIDIA ConnectX®-7 SmartNIC、NVIDIA BlueField®-3 DPU、および、最新のNVIDIA Omniverse Enterprise™ ソフトウェアを備えた OVX 3.0 構成を提供します。

Supermicro の最先端の新しいGPUシステムのすべての詳細については、以下をご覧ください。https://www.supermicro.com/en/accelerators/nvidia

NVIDIA GTC 2023でのSupermicro の詳細については、以下をご覧ください。https://register.nvidia.com/events/widget/nvidia/gtcspring2023/sponsorcatalog/exhibitor/1564778120132001ghs2/?ncid=ref-spo-128510