スケーラブルで俊敏なインフラストラクチャにより、アプリケーションの開発およびデプロイを加速するように設計されています。
Supermicro NGC-Readyシステムは、NVIDIA NGCのAIソフトウェアの機能と性能が検証されています。これらのシステムは、NVIDIA NGCと連携して、お客様がエンドツーエンドのAIソリューションを開発および展開することを可能にします。システムには、NVIDIA NGCソフトウェアを実行するために必要なオペレーティングシステム、コンテナ、CUDA環境が事前にインストールされています。Supermicroは、NVIDIA NGCソフトウェアのインストールを追加サービスとして提供します。ハードウェアとオペレーティングシステムに対するエンタープライズグレードのサポートが利用可能であり、システム管理者がシステムダウンタイムを最小限に抑え、ユーザーがAIワークロードを安心してサポートできるようにします。
NVIDIA V100およびT4を搭載したSupermicro NGC-Readyシステムは、トレーニングと推論の両方で高速化を実現します。NVIDIA NGCソフトウェアはDockerコンテナとして提供されるため、Supermicro NGC-Readyシステムが展開されている場所であればどこでも実行できます。
- データセンターまたはクラウド
- エッジ・マイクロデータセンター
- 環境に強くセキュアなEGXサーバーとして、分散した遠隔地に設置可能
26年にわたる最先端のコンピューティングソリューション提供の実績に裏打ちされたSupermicroシステムは、今日の市場で最も電力効率が高く、最高の性能と価値を提供するサーバーソリューションです。Ultra-fastネットワーキングとストレージ、NVIDIA V100およびT4 GPUをサポートするSupermicro NGC-Readyシステムは、AIをサポートする上で最もスケーラブルで信頼性の高いサーバーです。お客様は自信を持ってAIインフラストラクチャを運用できます。
エヌビディアNGC
NGCは、NVIDIAのGPUアクセラレーションによるAI、ML、HPCアプリケーションのコンテナ、SDK、ツールのハブであり、パフォーマンスに最適化されたソフトウェアへの迅速なアクセスを提供します。
NGCコンテナレジストリは、主要なAIおよびデータサイエンスソフトウェア用のコンテナ(すべてNVIDIAによってチューニング、テスト、最適化済み)と、HPCアプリケーションおよびデータ分析用の完全にテストされたコンテナをホストしています。これらのコンテナは、オンプレミスおよびクラウドのNVIDIA GPUを活用します。それぞれが完全に最適化されており、NVIDIA GPUを搭載したSupermicroの幅広いサーバーソリューションで動作します。
また、NVIDIA NGCは、データ科学者が高精度のモデルを迅速に構築できるよう、事前に訓練されたモデルをホストしており、トレーニングと推論によるエンドツーエンドのAIソリューションの開発を簡素化する業界固有のSDKを提供しています。
NVIDIAは、高性能GPUアクセラレータと、AIソフトウェア開発と展開のためのソフトウェアにおけるリーダーです。最新のAI研究の技術をNGCに取り入れることで、お客様はAIアプリケーションを開発するための最良の選択肢を得たと確信することができます。事前に訓練されたAIモデルと転移学習により、お客様はNGCを使用することで、以前よりもはるかに迅速にAIソリューションを開発することができます。

Supermicro NGC-Readyシステムの利点
Supermicro NGC-Readyシステムは、NGCコンテナを実行するための性能と機能が検証されています。NVIDIA NGCソフトウェアと組み合わせることで、ハイエンドのNGC-Readyシステムは、高速ネットワークとストレージを介してGPUを集約し、大規模なデータバッチで大規模なAIモデルをトレーニングできます。エッジ向けNGC-Readyシステムは、AI推論用のAIアプリケーションを展開します。
Supermicro NGC-Readyシステムは、以下の機能とサービスも提供します。
- 性能検証済みのシステムにより、解決までの時間が短縮され、IT管理者は適切なAIワークロードに適したシステムを選択できます。
- Supermicroは、システム電源投入時に即座にAIソフトウェア開発を開始できるオプションサービスを提供しています。オペレーティングシステム、CUDA、CUDA-X、NVIDIAドライバー、およびコンテナインフラストラクチャはプリロード済みです。
- NVIDIA NGCが提供する最新の最先端ディープラーニングAIモデルにアクセスできます。事前に訓練されたモデルとお客様独自のデータを使用して、新しいAIモデルを効率的に構築できます。
- NGCコンテナは、データセンターのSupermicroシステム上、エッジマイクロデータセンター内、エッジサーバー上、そしてクラウドバーストが必要な場合はクラウド内など、どこでも実行できます。Kubernetesは、本番環境におけるコンテナのデプロイ、スケーリング、管理を自動化します。
- ハードウェア、OS、NVIDIA NGCのサポートサービスをご利用いただけます。
- ラック、サーバー、ストレージ、ネットワークのセットアップサービス
- マルチサーバー展開のためのKubernetesコンサルティングサービス
Supermicroは、エンタープライズレベルのサポートを含むAI/DLソリューションスタックの一部として、NGC-Readyシステムを提供しています。詳細については、Supermicroの営業担当者にお問い合わせください。
SupermicroとNGC – ソリューション・アーキテクチャ
Supermicro NGC Readyシステムは、大規模なデータトレーニングからデータセンター推論、エッジ推論まで、顧客がAIインフラストラクチャ全体を実行できるようサポートします。

Supermicro NGC-Readyシステム
Supermicro 検証済みNVIDIA GPU Cloud (NGC) サーバー。最新の公開リストについては、こちらをご確認ください。
![]() | ![]() | ![]() | ![]() | ![]() | ![]() | |
トレーニング推論 データセンターエッジ | ||||||
| SYS-4029GP-TVRT | SYS-2029GP-TR | SYS-2029GP-TR | SYS-1019D-FHN13TP | システム-E403-9P-FN2T | システム-5019D-FN8TP | |
| 中央演算処理装置 | 2 *Xeon スケーラブル | 2 *Xeon スケーラブル | 2 *Xeon スケーラブル | 1 *Xeon D | 1 *Xeon D | 1 *Xeon D |
| アクセラレーター | 8 * V100 NVLink | 2 * V100 | 4 * T4 | 2 * T4 | 2 * T4 | 1 * T4 |
| メモリー | 6 | 4 | 4 | 512 | 512 | 512 |
| ストレージ | 16 * SATA3; 8 * NVMe | 8 * SATA3; 2 * NVMe | 8 * SATA3; 2 * NVMe | 4 * SATA3 | 4 * SATA3 | 4 * SATA3 |
| ネットワーク | 100GbE、GPUダイレクトRDMA | 100GbE、GPUダイレクトRDMA | 100GbE、GPUダイレクトRDMA | 10GbE、10GSFP | 10GbE、10GSFP | 10GBase-T、10GSFP |
| フォームファクター | 4Uラックマウント | 2Uラックマウント | 2Uラックマウント | ショート・デプス | ボックスPC、ショートデプス | 壁掛け |




