Zum Hauptinhalt springen
„Die Tiefe des Server-Portfolios Supermicroist ein Gewinn für Lambda. Da wir KI im Gigawatt-Maßstab für Training und Inferenz aufbauen, produktionsreife KI für die weltweit fortschrittlichsten KIOrganisationen bereitstellen und uns bemühen, unseren Kunden unbegrenzte On-Demand-Rechenleistung zu bieten, wissen wir, dass wir uns auf einen Partner verlassen können, der eine Auswahl an leistungsstarken, GPU-optimierten Servern bietet, die unseren aktuellen und zukünftigen Anforderungen gerecht werden.“

-Kenneth Patchett, VP Rechenzentrumsinfrastruktur, Lambda

Nahaufnahme von Lambda-gefertigten Racks mit Supermicro NVIDIA HGX B200 8-GPU-Systemen, die für die Cloud-Infrastruktur verwendet werden

Herausforderung

  • Lambda musste moderne Server mit den neuesten NVIDIA-Grafikprozessoren anschaffen, um mit den wachsenden technologischen Entwicklungen und der Kundennachfrage nach schnellerer Leistung Schritt zu halten.
  • Lambda bedient ein breites Spektrum von Benutzern. Angesichts dieser wachsenden Anforderungen wollte Lambda die Skalierbarkeit sicherstellen, ohne Kompromisse bei der Leistung oder Effizienz einzugehen.
  • Neben leistungsstarken Servern musste Lambda auch innovative Software entwickeln, um die Bedürfnisse der Kunden zu erfüllen.
  • Wir wollten unseren Kunden die Möglichkeit geben, schnell zu starten und die gewünschte Umgebung für ihre KI mit minimaler Einrichtungszeit zu schaffen.

Lösung

  • Lambda entschied sich für Supermicro seiner GPU-optimierten Server, um den laufenden Kundenanforderungen gerecht zu werden.
  • Lambda entschied sich für eine Kombination aus Supermicro mit Intel-CPUs und NVIDIA Blackwell-GPUs, um den wachsenden Anforderungen der Kunden gerecht zu werden.
  • Lambda hat die Flüssigkeitskühlungslösungen Supermicroeingeführt, um Skalierbarkeit und Nachhaltigkeit zu gewährleisten.
  • Die modulare Bausteinarchitektur Supermicroermöglichte eine schnelle Bereitstellung und verkürzte so die Markteinführungszeit.

Unternehmen
Lambda
Industrie
Anbieter von Cloud-Diensten
Standort
USA

Wesentliche Ergebnisse

Bessere Effizienz mit fortschrittlicher Kühlung

Die neuen Server nutzen eine Flüssigkeitskühlung, um auch bei großen KI energieeffizient zu bleiben.

Unterstützt Skalierbarkeit

Durch die Nutzung der einzigartigen Architektur Supermicrokann Lambda je nach Anwendungsfall nach oben oder unten skaliert werden.

Einfacher und sofortiger Zugang zur GPU-Leistung

Mit 1-Click-Clusters können Anwender in wenigen Minuten und viel schneller als je zuvor auf leistungsstarke GPU-Cluster zugreifen.

Bereit für die Zukunft der KI

Mit den neuesten GPUs und fortschrittlichen Netzwerken ist Lambda auf die Unterstützung zukünftiger KI und -Technologien ausgelegt.