KI-Optimierte Infrastruktur

als Schlüssel zur Zukunft der Telekommunikation

KI-Optimierte Infrastruktur
KI-Optimierte Infrastruktur

als Schlüssel zur Zukunft der Telekommunikation

Supermicro bietet maßgeschneiderte Serverlösungen für Telekommunikationsunternehmen, die eine optimale Basis für den Einsatz modernster Technologien wie 5G und 6G schaffen. Durch die leistungsstarke KI-Integration ermöglichen diese Systeme eine effizientere Netzwerkinfrastruktur und beschleunigte Datenanalysen. Mit einer der umfassendsten Auswahlen an NVIDIA-zertifizierten Systemen setzt Supermicro neue Maßstäbe in Leistung und Effizienz der KI-Infrastruktur. Ausgestattet mit den NVIDIA H100 und H200 Tensor Core GPUs bieten die Systeme eine bis zu neunfache Steigerung der Trainingsleistung gegenüber der vorherigen Generation, wodurch die Trainingszeit komplexer KI-Modelle von einer Woche auf nur 20 Stunden reduziert wird. Erweiterte Konnektivität durch PCIe 5.0, die vierte Generation von NVLink, NVIDIA ConnectX®-7 und BlueField®-3-Karten machen die Systeme optimal für Scale-out-Szenarien. Mit GPUDirect RDMA, NVIDIA Magnum IO und NVIDIA AI Enterprise Software ermöglichen diese Lösungen eine nahtlose und hochperformante KI-Bereitstellung.

Vorteile

Mit diesen hochmodernen Systemen können Telekommunikationsunternehmen ihre KI-Infrastruktur auf das nächste Level bringen, indem sie Netzwerke effizienter machen, schneller skalieren und zukunftsweisende Technologien wie 6G vorantreiben. 

Trainingsgeschwindigkeit

Erhöhte Trainingsgeschwindigkeit: Mit den neuesten NVIDIA H100 und H200 GPUs können komplexe AI-Modelle bis zu neunmal schneller trainiert werden, was die Entwicklungszeiten von Wochen auf Stunden reduziert.

Netzwerkverbindungen

Optimierte Netzwerkverbindungen: Durch die Integration von NVIDIA ConnectX®-7 und BlueField®-3 Karten sowie PCIe 5.0-Konnektivität werden Datenflüsse optimiert und Latenzzeiten minimiert.

Architektur

Skalierbare Architektur: Von kleinen Unternehmen bis hin zu massiven AI-Trainings-Clustern bieten Supermicro und NVIDIA eine skalierbare Plattform, die sich an die jeweiligen Anforderungen anpasst.

Supermicro Systems Optimized for AI Applications
SYS-111E-F(D)WTR
SYS-111E-F(D)WTR
Dimensions (mm) H × W × D 43 × 437 × 429
Cooling Air
Key Features 5885 (Llama v2 7B) ɸeLLM Throughput(Tokens/sec per GPU)

Use Cases:

  • 5G Monetization with Edge AI
  • 6G Research
GPU Support
  • Max 1 Full Height Full Length Double-Width GPU
    NVIDIA L40 GPU
    NVIDIA L40
SYS-E403-13E-FRN2T
SYS-E403-13E-FRN2T
Dimensions (mm) H × W × D 117.3 × 266.7 × 406.4
Cooling Air
Key Features 5885 (Llama v2 7B) ɸdLLM Throughput(Tokens/sec per GPU)

Use Cases:

  • 5G Monetization with Edge AI
  • 6G Research
GPU Support
  • Max 1 Full Height Full Length Double-Width GPU

    NVIDIA L40S GPU
    NVIDIA L40S
SYS-221HE-FTNR(D)
SYS-221HE-FTNR(D)
Dimensions (mm) H × W × D 89 × 437 × 574
Cooling Air
Key Features 2335 (Llama v2 70B) *cLLM Throughput(Tokens/sec per GPU)

Use Cases:

  • Reimagining Contact Centers to Enhance Customer Experiences
  • Streamlined Network Operations
  • Predictive Business Insights
  • 5G Monetization with Edge AI
  • 6G Research
GPU Support
  • Max 2 Full Height Full Length Double-Width GPUs

    NVIDIA H100 NVL
    NVIDIA H100 NVL
ARS-111GL-NHR
ARS-111GL-NHR
Dimensions (mm) H × W × D 44 × 440 × 940
Cooling Air
Key Features 3401 (Llama v2 70B) ɸaLLM Throughput(Tokens/sec per GPU)

Use Cases:

  • Reimagining Contact Centers to Enhance Customer Experiences
  • Streamlined Network Operations
  • Predictive Business Insights
  • 5G Monetization with Edge AI
  • 6G Research
GPU Support
  • 1 Onboard GPU

    NVIDIA GH200 Grace Hopper Superchip
    NVIDIA GH200 Grace Hopper Superchip
SYS-421GE-TNHR2-LCC
SYS-421GE-TNHR2-LCC
Dimensions (mm) H × W × D 174 × 449 × 842
Cooling Liquid
Key Features 3269 (Llama v2 70B) ɸbLLM Throughput(Tokens/sec per GPU)

Data Center Cluster:

  • 15.8k BF16/FP16 TFLOPS
  • 31.6k INT8 TOPS

Use Cases:

  • AI Factories for National Sovereign AI Infrastructure
  • Streamlined Network Operations
  • Predictive Business Insights
GPU Support
  • 8 Onboard GPUs

    NVIDIA HGX H100/H200 GPUs
    NVIDIA HGX H100/H200
SYS-821GE-TNHR
SYS-821GE-TNHR
Dimensions (mm) H × W × D 356 × 437 × 843
Cooling Air
Key Features 3269 (Llama v2 70B) ɸbLLM Throughput(Tokens/sec per GPU)

Data Center Cluster:

  • 15.8k BF16/FP16 TFLOPS
  • 31.6k INT8 TOPS

Use Cases:

  • AI Factories for National Sovereign AI Infrastructure
  • Streamlined Network Operations
  • Predictive Business Insights
GPU Support
  • 8 Onboard GPUs

    NVIDIA HGX H100/H200 GPUs
    NVIDIA HGX H100/H200
Ihre optimale Website-Nutzung

Diese Website verwendet Cookies und bindet externe Medien ein. Mit dem Klick auf „✓ Alles akzeptieren“ entscheiden Sie sich für eine optimale Web-Erfahrung und willigen ein, dass Ihnen externe Inhalte angezeigt werden können. Auf „Einstellungen“ erfahren Sie mehr darüber und können persönliche Präferenzen festlegen. Mehr Informationen finden Sie in unserer Datenschutzerklärung.

Detailinformationen zu Cookies & externer Mediennutzung

Externe Medien sind z.B. Videos oder iFrames von anderen Plattformen, die auf dieser Website eingebunden werden. Bei den Cookies handelt es sich um anonymisierte Informationen über Ihren Besuch dieser Website, die die Nutzung für Sie angenehmer machen.

Damit die Website optimal funktioniert, müssen Sie Ihre aktive Zustimmung für die Verwendung dieser Cookies geben. Sie können hier Ihre persönlichen Einstellungen selbst festlegen.

Noch Fragen? Erfahren Sie mehr über Ihre Rechte als Nutzer in der Datenschutzerklärung und Impressum!

Ihre Cookie Einstellungen wurden gespeichert.