本文へスキップ
Supermicro深さは、ラムダにとって貴重な資産です。ギガワット規模のAIトレーニング・推論ファクトリーの構築、世界最先端のAI組織向け本番環境グレードのAIクラウドの導入、そしてお客様のための無限規模のオンデマンドコンピューティングの実現を目指す中で、現在および将来のニーズを満たす高性能GPU最適化サーバーの選択肢を提供するパートナーに、確信を持って依存できることを認識しております。

-ラムダ、データセンター・インフラ担当副社長、ケネス・パチェット氏

クラウドインフラストラクチャ向けに採用された、Supermicro NVIDIA HGX B200 8-GPUシステムを収納した、ラムダ社製ラックのクローズアップ

課題

  • ラムダは、技術的な発展や、より高速なパフォーマンスを求める顧客ニーズの高まりに対応するため、最新のNVIDIA GPUを搭載した最新のサーバーを導入する必要がありました。
  • ラムダは幅広いユーザーにサービスを提供しています。こうした需要の高まりに伴い、Lambdaはパフォーマンスや効率を犠牲にすることなくスケーラビリティを確保したいと考えていました。
  • ラムダは、高性能なサーバーとともに、顧客のニーズを満たす革新的なソフトウェアを開発する必要がありました。
  • 顧客が迅速に導入し、最小限のセットアップ時間でAIワークロードに必要な環境を構築できるようにしたいと考えていました。

ソリューション

  • Lambda社は、継続的な顧客の需要に応えるため、GPU最適化サーバーSupermicro を選定いたしました。
  • ラムダ社は、顧客の増大する需要に対応するため、インテル製CPUを搭載したSupermicro NVIDIAブラックウェルGPUを搭載したSupermicro 組み合わせて採用いたしました。
  • ラムダは、持続可能性を備えた拡張性を確保するため、Supermicro液体冷却ソリューションを採用いたしました。
  • Supermicroモジュラー型ビルディングブロックアーキテクチャにより、迅速な導入が可能となり、市場投入までの時間を短縮することができました。

会社概要
ラムダ
産業
クラウドサービスプロバイダー
所在地
アメリカ

主な結果

高度な冷却による効率の向上

この新しいサーバーは、大規模なAIワークロードを処理する場合でもエネルギー効率を維持できるよう、液冷を採用しています。

スケーラビリティのサポート

Supermicro独自のアーキテクチャを活用することで、Lambdaはユースケースに応じてスケールアップまたはスケールダウンする能力を有しております。

GPUパワーに簡単かつ即座にアクセス

1-Click-Clustersを使用すると、ユーザーは強力なGPUクラスタにわずか数分で、これまでよりもはるかに高速にアクセスできます。

AIの未来への準備

最新のGPUと高度なネットワークにより、ラムダは将来のAIモデルとテクノロジーをサポートするように構築されています。