- 日程
- -
- 所在地
- San Jose McEnery Convention Center • San Jose, CA
NVIDIA GTC 2026
GTC 20Supermicro
Supermicro NVIDIA GTC 2026にSupermicro 、NVIDIAプラットフォームがいかにして実運用可能なAIファクトリーとなるかを紹介しました。長年にわたるNVIDIAのパートナーであり、GTCのダイヤモンドスポンサーSupermicro 、トレーニング、推論、ストレージ、エッジを網羅する、業界で最も幅広いAIファクトリー構築用コンポーネントのポートフォリオをSupermicro 。 参加者は、Supermicro NVIDIAのAIソフトウェアスタックおよび最新プラットフォームと完全に統合されたトータルソリューションを、Supermicro 、構築、展開しているかを目の当たりにすることができました。
主な見どころは以下の通りです:
- 次世代AIプラットフォーム:NVIDIA Vera Rubinアーキテクチャをベースにした次世代AIソリューション。
- 高密度AIトレーニングプラットフォーム:液冷・空冷の両方に対応した高密度設計で、NVIDIA HGX B300システムおよびNVIDIA GB300 NVL72を採用。
- エンタープライズ向けAI推論 / RAGシステム:NVIDIA RTX PRO™プラットフォームに最適化されたPCIe GPUサーバーによる高効率なAI推論環境。
- AIデータプラットフォーム向けストレージ:トレーニング、ファインチューニング、推論パイプラインに対応する高スループット・低レイテンシのストレージシステム。
- エッジおよびローカルデータセンターAI:データが生成される現場に近い場所でAIを稼働させるエッジAIソリューション。
- 検証済みAIファクトリーリファレンスアーキテクチャ:コンピュート、ネットワーク、ストレージ、ソフトウェアを統合し、すぐに導入可能なAI基盤を提供。
イベントは終了いたしました。来年もお会いできるのを楽しみにしております!

EX82279 – Who Owns Intelligence When AI Runs the World?
- 所在地
- San Jose, CA
- 日付
- ~
- 登壇者:
- Charles Liang (Supermicro)
- Sami Issa (Global AI)
セッションの詳細
AIシステムがメガワット規模からギガワット規模へと拡大する中、AIの重心はモデルそのものからインフラへと移りつつあります。本セッションでは、コンピュート、システム設計、そして国家レベルのAIプラットフォームの最前線で活躍する3人のリーダーが登壇し、電力、冷却、アーキテクチャ、導入戦略がAIの性能、主権、そしてインテリジェンスの制御にどのような影響を与えるのかを議論します。また、最新のAIシステムにおいてボトルネックがアルゴリズムから物理インフラ(電力密度、冷却、レイテンシ)へと移行している理由を解説するとともに、信頼性・セキュリティ・経済性を維持しながらギガワット規模のAIインフラを展開するための要件を探ります。さらに、システムアーキテクチャや統合設計が大規模AI環境における決定性、分離性、信頼性にどのように影響するのか、そしてソブリンAIやエンタープライズAIの導入が、従来のハイパースケールクラウドモデルとどのように異なるのかについても理解を深めていただきます。
S82228 – Distributed AI Computing From AI Factories to the Edge
- 所在地
- San Jose, CA
- 日付
- ~
- 登壇者:
- Thomas Jorgensen (Supermicro)
- Steve Stein (NVIDIA)
- Mory Lin (Supermicro)
セッションの詳細
企業はAIの実験段階から本番運用フェーズへと移行しており、性能だけでなくROI(投資対効果)も重要な指標となっています。本セッションでは、SupermicroとNVIDIAが、AIファクトリー、エッジAI、オンプレミス環境を組み合わせることで、どのようにスケーラブルでコスト効率の高いAIソリューションを実現できるのかを紹介します。また、NVIDIA RTX PRO 6000 / 4500 Blackwell Server EditionなどのGPUを搭載したシステムが、データセンターからエッジ環境まで、推論、可視化、Retrieval-Augmented Generation(RAG)ワークロードをどのように支えているのかを解説します。さらに、GPU、ネットワーク、ストレージを密接に統合したRAGパイプラインが、低レイテンシかつコンテキストを理解したAI応答を実現し、企業のデータ管理の強化、運用コストの削減、AI投資のROI最大化にどのように貢献するのかを紹介します。
S82227 – Liquid-Cooled AI for Next-Generation Platforms
- 所在地
- San Jose, CA
- 日付
- ~
- 登壇者:
- Alok Srivastava (Supermicro)
- Steven Huang (Supermicro)
セッションの詳細
より大規模なモデルと高密度クラスターを支えるため、AIファクトリーの冷却技術は液冷へと進化しています。本セッションでは、SupermicroとNVIDIAが、液冷対応NVIDIA HGXシステムおよびNVL72ラックスケールプラットフォームを活用した次世代AIファクトリーの構築について解説します。これにより、高密度かつ高性能なGPUクラスターによる大規模AIトレーニングが可能になります。また、Supermicroがこれらのプラットフォームを単体サーバーではなく、検証済みのラックスケールソリューションとして導入しているアプローチについても紹介します。セッションでは、Direct-to-Chip冷却やラックレベルの液冷統合などの設計・導入のポイントを解説するとともに、液冷によるトータルソリューションがAIファクトリーのTime-to-Onlineを短縮し、性能とエネルギー効率を向上させる仕組みを紹介します。

Charles Liang
Founder, President & CEO @ Supermicro

Sami Issa
Co-Founder, Director & CEO @ Global AI

Thomas Jorgensen
Supermicro テクノロジー・イネーブルメント部門 シニアディレクター

Steve Stein
Senior Product Marketing Manager @ NVIDIA

Mory Lin
Vice President, IoT/Embedded & Edge Computing @ Supermicro

Alok Srivastava
Director, Solutions Management AI @ Supermicro

Steven Huang
Project Manager, Datacenter Liquid Cooling @ Supermicro
AIファクトリーを体験
この没入型のインタラクティブ体験では、AI FactoryおよびAI Data Platformソリューションの導入事例、活用シーン、そしてメリットが紹介されました。活用事例のデモ、AI Factoryのシミュレーション体験、そして「AMECA」という名の生成AIロボットを交え、エンタープライズAIのメリットを余すところなくご紹介しました。
