AMD Instinct™-Beschleuniger
der Serie MI300

Führende generative KI-Beschleuniger und Rechenzentrums-APUs

Das exponentielle Datenwachstum und der zunehmende Bedarf an Echtzeit-Ergebnissen sind die Haupttreiber hinter den Fortschritten in der Branche, die ständig neue Grenzen der Innovation erreicht, um die vielfältigen und komplexen Anforderungen von KI- und HPC-Anwendungen zu erfüllen. Sowohl KI als auch HPC erfordern eine Architektur mit hoher Rechenleistung, großem Speicher und hoher Bandbreite, aber ihre Nutzung unterscheidet sich leicht.

Für KI-Anwendungen ist eine hohe Rechengeschwindigkeit bei weniger Genauigkeit und großem Speicher entscheidend, um Modelle zu trainieren, Vorhersagen zu treffen und generative KI zu skalieren. Im Gegensatz dazu benötigen HPC-Anwendungen präzise Berechnungen und Ressourcen für die Verarbeitung großer Datenmengen und komplexe Simulationen, die für wissenschaftliche Entdeckungen unerlässlich sind.

Die brandneue AMD Instinct™ MI300-Serie mit AMD CDNA™ 3-Architektur bietet maßgeschneiderte Lösungen für die spezifischen Anforderungen von KI und HPC. Mit der aktualisierten AMD ROCm™ 6-Softwareplattform können Partner schnell skalierbare Lösungen für eine Vielzahl moderner Workloads entwickeln und damit einige der drängendsten Herausforderungen der Welt auf äußerst effiziente Weise bewältigen.

Plattform der AMD Instinct™ MI300-Serie

Eine Rechenzentrums-APU (MI300A) und eine separate GPU (MI300X)

AMD Instinct™ MI300A APU:
speziell entwickelte HPC-APU

Der AMD Instinct MI300A APU-Beschleuniger ist für die Verarbeitung großer Datensätze optimiert und eignet sich ideal für rechenintensive Modellierung und Analysen. Er verwendet ein innovatives 3D-Chiplet-Design, das 3D-gestapelte "Zen 4" x86-CPUs und AMD CDNA 3 GPU-XCDs mit High-Bandwidth-Speicher (HBM) kombiniert. Mit 24 CPU-Kernen und 14.592 GPU-Stream-Prozessoren bietet diese fortschrittliche Architektur bahnbrechende Leistung, Dichte und Energieeffizienz für beschleunigte HPC- und KI-Anwendungen. Der MI300A wird in großen und skalierbaren Rechenzentren und Supercomputern weltweit eingesetzt, darunter auch der Zwei-Exaflop-Supercomputer El Capitan, der zu den schnellsten der Welt gehören wird. Dies ermöglicht Fortschritte in verschiedenen Bereichen wie Gesundheitswesen, Energie, Klimawissenschaft, Transport und wissenschaftlicher Forschung.

AMD Instinct™ MI300X Beschleuniger:
entwickelt für modernste KI

Der AMD Instinct MI300X Beschleuniger wurde speziell für große Sprachmodelle und andere fortschrittliche KI-Anwendungen entwickelt, die Training und Inferenz auf umfangreiche Datensätze erfordern. Im Vergleich zum MI300A ersetzt der MI300X drei "Zen 4"-CPU-Chiplets durch zwei zusätzliche AMD CDNA 3 XCD-Chiplets und fügt 64 GB HBM3-Speicher hinzu, was den Arbeitsspeicher auf bis zu 192 GB erhöht. Diese Optimierungen ermöglichen eine verbesserte Ausführung größerer KI-Modelle direkt im Speicher, was es Cloud-Anbietern und Unternehmen ermöglicht, mehr Inferenzjobs pro GPU auszuführen, die Anzahl der benötigten GPUs zu reduzieren, die Inferenzleistung zu steigern und die Gesamtbetriebskosten zu senken.

Unsere Empfehlung

sysGen/SUPERMICRO Universal 8U Dual AMD EPYC™ System
# AS-8125GS-TNMR2
​​​​​​​

o Barebone AS-8125GS-TNMR2
o 2x AMD EPYC™ BERGAMO 9754, 128-Core
   128C/256T, 2.25-3.10 GHz, 256MB L3 Cache,
o 3TB (24x 128GB) DDR5 4800MHz ECC reg.
o 4x 3.84TB Gen 4. NVME SSDs
o 1x AMD Instinct™ MI300X – 192 GB GPU:
   Universal baseboard (UBB) module with 8 AMD
   Instinct™ MI300X OAM GPUs - 1536 GB total memory
o 2x 10GbE RJ45 AIOM Card
   1 RJ45 Dedicated IPMI LAN port
o 3 years warranty included
Preis auf Anfrage
​​​​​​​

Anfrage

AMD CDNA™ 3-Architektur

Die AMD Instinct MI300-Serie beschleunigt auf Basis der AMD CDNA™ 3 Architektur und integriert Matrix-Core-Technologien. Diese Serie unterstützt verschiedene Genauigkeiten, von hocheffizienten INT8 und FP8 bis hin zu anspruchsvollen FP64 für HPC-Anwendungen. Die Architektur ermöglicht eine heterogene Integration und liefert herausragende Leistung durch fortschrittliche Paketierung. Ein kohärentes Programmiermodell verbindet CPUs und GPUs nahtlos, um Kunden die Dichte und Energieeffizienz zu bieten, um komplexe Probleme anzugehen.

Die Architektur basiert auf einem heterogenen Paket mit bis zu acht vertikal gestapelten Rechenchips und vier I/O-Chips, die durch die Infinity-Architektur der vierten Generation verbunden sind. Die Integration von acht Stapeln mit hoher Bandbreite ermöglicht verbesserte Leistung, Effizienz und Programmierbarkeit.

Die AMD Instinct MI300-Serie bietet Varianten mit CPU- und GPU-Chiplets, um verschiedenen Arbeitslasten gerecht zu werden. Die AMD Instinct MI300A APU kombiniert drei "Zen 4" x86-CPUs mit sechs GPU-Beschleuniger-Rechenchips der AMD CDNA-Architektur der 3. Generation. Diese APU nutzt einen gemeinsamen Speicherpool und AMD Infinity Cache™, was sie zur weltweit ersten leistungsstarken APU der Hyper-Scale-Klasse macht.

serien-Übersicht

Entdecken Sie AMD Instinct MI300X Beschleuniger, die AMD Instinct MI300X Plattform und AMD Instinct MI300A APUs.

AMD Instinct MI300X-Beschleuniger

AMD Instinct MI300X Series Beschleuniger wurden entwickelt, um führende Leistung für generative KI-Workloads und HPC-Anwendungen zu liefern.

Spezifikationen anzeigen

AMD Instinct MI300X Plattform

Die AMD Instinct MI300X Plattform integriert 8 vollständig verbundene MI300X GPU OAM-Module in ein OCP-Design nach Branchenstandard über AMD Infinity Fabric™ Verknüpfungen der 4. Generation und liefert so bis zu 1,5 TB HBM3-Kapazität für KI-Verarbeitung mit niedriger Latenz. Diese sofort einsatzbereite Plattform kann die Markteinführungszeit beschleunigen und die Entwicklungskosten reduzieren, wenn MI300X Beschleuniger einer bestehenden KI-Rack- und Serverinfrastruktur hinzugefügt werden.

Spezifikationen anzeigen

AMD Instinct MI300A APUs

AMD Instinct MI300A beschleunigte Prozessoreinheiten (APUs) kombinieren die Leistung von AMD Instinct Beschleunigern und AMD EPYC™ Prozessoren mit gemeinsam genutztem Speicher, um erweiterte Effizienz, Flexibilität und Programmierbarkeit zu ermöglichen. Sie sollen die Konvergenz von KI und HPC beschleunigen und so die Forschung und neue Entdeckungen voranbringen.

Spezifikationen anzeigen

Bewährte Leistung in großem Maßstab

Neue optimierte Rechenzentrumslösungen mit AMD Instinct Beschleunigern der MI300 Serie

Supermicro stellt drei neue GPU-Systeme mit AMD Instinct™-Beschleunigern der MI300-Serie vor, um KI- und HPC-Infrastrukturen im großen Maßstab voranzutreiben. Das neue 8U 8-GPU-System mit MI300X-Beschleunigern basiert auf Supermicros bewährter KI-Baukastensystem-Architektur und optimiert die Bereitstellung im großen Maßstab für die größten KI-Modelle und verkürzt die Vorlaufzeit. Darüber hinaus nutzen Supermicros 4U- und flüssigkeitsgekühlte 2U 4-Way-Systeme, die MI300A APUs unterstützen, die CPUs und GPUs kombinieren, Supermicros Expertise in der Multiprozessor-Systemarchitektur und im Kühlungsdesign, die genau auf die Konvergenz von AI und HPC abgestimmt sind.

Branchenerprobte Systemdesigns

8U-Hochleistungs-Fabric-System mit 8 GPUs, das das branchenübliche OCP Accelerator Module (OAM) zur Unterstützung der MI300X-Beschleuniger von AMD nutzt. 4U- und 2U-Multiprozessor-APU-Systeme integrieren 4 AMD Instinct™ MI300A-Beschleuniger.

Speziell für AI und HPC entwickelt

Maximierte Funktionen und optimierter Stromverbrauch, Unterstützung von bis zu 16 dedizierten Hot-Swap-NVMe-Laufwerken, Hochleistungs-GPUs, CPUs und Arbeitsspeichern sowie Hochgeschwindigkeitsnetzwerke für groß angelegte Cluster-Bereitstellungen.

Erweiterte Kühlungsoptionen

Flexible Kühlungsoptionen für luft- und flüssigkeitsgekühlte Racks, wobei flüssigkeitsgekühlte Lösungen außergewöhnliche TCO mit über 51 % Energiekosteneinsparungen für Rechenzentren bieten.

Skalierbares Design

Das System wurde mit Blick auf volle Skalierbarkeit entwickelt und unterstützt 8 Hochgeschwindigkeits-400G-Netzwerkkarten, die eine direkte Verbindung zu jeder GPU für massive KI-Cluster bieten.

ServerÜbersicht

Konfiguration
Formfaktor
CPU
GPU
Speicher
Laufwerke
Vernetzung
Verbinden Sie
Strom
Kühlung

AS -8125GS-TNMR2 (8U)

KI-Training und -Inferenz in großem Maßstab

8U 8-GPU System mit AMD Instinct MI300X Beschleunigern

8U 8-GPU System mit AMD Instinct MI300X Beschleunigern (luftgekühlt)
Zwei AMD EPYC Prozessoren der Serie 9004 mit bis zu 128 Kernen/256 Threads pro Sockel
8x AMD Instinct MI300X-Beschleuniger mit 192 GB HBM3-Speicher pro GPU, zusammengeschaltet auf AMD Universal Base Board (UBB 2.0)
Bis zu 6TB (24x 256GB DRAM) 4800MT/s ECC DDR5 RDIMM/LRDIMM
16x hot-swap PCIe 5.0 U.2 NVMe, 1x onboard M.2 NVMe, 2x 2,5" SATA
8x PCIe 5.0 Hochleistungs-Netzwerkkarten, bis zu 400G mit Ethernet oder InfiniBand
AMD Infinity Fabric™ Links, bis zu 896 GB/s Peer-to-Peer-Konnektivität zwischen den GPUs
6x oder 8x 3000W redundante Titanium Level Netzteile
Luftkühlung

WIE -2145GH-TNMR (2U)

HPC und Supercomputing für Unternehmen

Flüssigkeitsgekühltes 2U Quad-APU System mit AMD Instinct MI300A Beschleunigern

2U 4-GPU System mit AMD Instinct MI300A Beschleunigern (flüssigkeitsgekühlt)
Vier AMD Instinct MI300A APUs mit insgesamt 96 CPU-Kernen (4x 24 AMD "Zen4" Kerne)
4x AMD Instinct MI300A mit 228 AMD CDNA 3 GPU-Recheneinheiten pro APU
512 GB vereinheitlichter HBM3-Speicher mit bis zu 5,3 TB/s Bandbreite
2x onboard 2280 oder 22110 M.2 NVMe und 8x hot-swap 2,5" U.2 NVMe
2x AIOM (OCP 3.0) mit bis zu 400G und zusätzlich 4x PCIe 5.0 (x8) Steckplätze
AMD Infinity Fabric Links, bis zu 384 GB/s Peer-to-Peer-Verbindungen zwischen den GPUs
4x 1600W redundante Titanium Level Netzteile
Flüssigkeitskühlung

WIE -4145GH-TNMR (4U)

Konvergierte HPC-AI und wissenschaftliches Rechnen

Luftgekühltes 4U Quad-APU System mit AMD Instinct MI300A Beschleunigern

4U 4-GPU System mit AMD Instinct MI300A Beschleunigern (luftgekühlt)
Vier AMD Instinct MI300A APUs mit insgesamt 96 CPU-Kernen (4x 24 AMD "Zen4" Kerne)
4x AMD Instinct MI300A mit 228 AMD CDNA 3 GPU-Recheneinheiten pro APU
512 GB vereinheitlichter HBM3-Speicher mit bis zu 5,3 TB/s Bandbreite
2x onboard 2280 oder 22110 M.2 NVMe und 8x hot-swap 2,5" U.2 NVMe oder 24x 2,5" SAS/SATA
2x AIOM (OCP 3.0) mit bis zu 400G und zusätzlich 4x PCIe 5.0 (x8) Steckplätze
AMD Infinity Fabric Links, bis zu 384 GB/s Peer-to-Peer-Verbindungen zwischen den GPUs
4x 1600W redundante Titanium Level Netzteile
Luftkühlung

Open-Source-Softwareplattform AMD ROCm™

Die Open-Source-Plattform AMD ROCm™ 6 wurde entwickelt, um die maximale Leistung von AMD Instinct MI300-Beschleunigern für HPC und KI-Workloads zu erreichen, während gleichzeitig die Kompatibilität mit gängigen Software-Frameworks erhalten bleibt. ROCm bietet eine Vielzahl von Treibern, Entwicklungstools und APIs für die GPU-Programmierung von Low-Level-Kernel bis Endbenutzeranwendungen und kann an individuelle Anforderungen angepasst werden. Entwickler können Anwendungen in einem kostenlosen, sicheren Open-Source-Ökosystem erstellen, testen und bereitstellen. Die Software ist portabel und ermöglicht den nahtlosen Wechsel zwischen verschiedenen Beschleunigern und Inter-GPU-Konnektivitätsarchitekturen. ROCm ist ideal für HPC, KI, wissenschaftliches Rechnen und CAD. Auf dem Infinity Hub sind fortschrittliche GPU-Softwarecontainer und Bereitstellungshandbücher für HPC, KI und Machine Learning verfügbar, um Systembereitstellungen zu beschleunigen und die Time-to-Insight zu verkürzen

Supercharging AI und HPC

Die Beschleuniger der AMD Instinct™ MI300 Serie eignen sich hervorragend für die anspruchsvollsten KI- und HPC-Workloads. Sie bieten außergewöhnliche Rechenleistung, hohe Speicherdichte, Speicher mit hoher Bandbreite und Unterstützung für spezielle Datenformate.

Schlussfolgerung

Die AMD Instinct™ MI300-Serie markiert einen bedeutenden Fortschritt in der Bereitstellung leistungsstarker Lösungen für die Anforderungen von KI- und HPC-Anwendungen.

Die AMD Instinct™ MI300-Serie ist mit der Compute DNA-Architektur (AMD CDNA™ 3) der dritten Generation ausgestattet und bietet zwei verschiedene Varianten, die speziell auf die Bedürfnisse von KI- und HPC-Anwendungen zugeschnitten sind. Diese Beschleuniger liefern die benötigte Rechenleistung, Speicherkapazität und Speicherbandbreite, um komplexe Modelle zu trainieren, genaue Vorhersagen zu treffen und große Datenmengen für wissenschaftliche Entdeckungen zu verarbeiten.

sysGen's Expertise und unser Engagement für Innovation ermöglichen es uns, maßgeschneiderte Lösungen anzubieten, die Ihren Anforderungen entsprechen und Ihnen helfen, Ihre Ziele effizient zu erreichen. Kontaktieren Sie uns noch heute, um mehr über die AMD Instinct™ MI300-Serie und ihre Vorteile für Ihre Anwendungen zu erfahren.



Erfahren Sie mehr
Erfahren Sie mehr über die AMD CDNA™-Architektur der 3. Generation.
Erfahren Sie mehr über die neuesten Beschleuniger der AMD Instinct™ MI300-Serie.
Besuchen Sie den AMD Infinity Hub, um mehr über AMD Instinct™ unterstützten Container zu erfahren.
Erfahren Sie mehr über die offene Softwareplattform AMD ROCm™ .