Beschleunigung von HPC- und KI-Workloads
Die NVIDIA H100 Tensor Core GPU ermöglicht einen Sprung um Größenordnungen für KI und HPC im großen Maßstab. Mit NVIDIA AI Enterprise für eine optimierte KI-Entwicklung und -Bereitstellung und dem NVIDIA NVLINK Switch System für die direkte Kommunikation zwischen bis zu 256 GPUs beschleunigt der H100 alles - von Exascale-Workloads mit einer dedizierten Transformer Engine für Sprachmodelle mit Billionen von Parametern bis hin zu Multi-Instance-GPU-Partitionen (MIG) in der richtigen Größe.
Testen Sie Supermicro-Systeme mit H100-GPUs und erleben Sie eine End-to-End-Plattform für KI und HPC-Rechenzentren!
Try before you buy!
Testen Sie Supermicro Systeme mit H100 GPUs und erleben Sie beispiellose Leistung, Skalierbarkeit und Sicherheit für jedes Rechenzentrum.
Spezifikation der Testumgebung
In Zusammenarbeit mit NVIDIA und Supermicro bieten wir als Elite Partner das NVIDIA H100 PCIe GPU Test Drive Programm an. Erleben Sie kostenlos und unverbindlich in unserem Testcenter, was die H100 in einer PCIe 5.0 Umgebung mit schnellem Speicher leisten kann. Interessiert an einem Test?
Daten
Modellbezeichnung | A+ Server AS-4125GS-TNRT |
CPU | 2x 9654 Dual Socket SP5 (AMD EPYC 9004 Series) Insgesamt 192 Kerne | 384 Threads |
TDP | 350W pro CPU |
RAM | 768GB RAM DDR5-4800 MHz |
GPUs | 2x NVIDIA H100 Tensor Core GPU 80GB |
NVMe | 1x 1.9TB M.2 Gen 4.0 NVMe SSD 2x 3.84TB U.2 Gen 4.0 NVMe SSD |
Netzwerk | 2x 10GbE RJ45 |
IPMI | IPMI 2.0 over LAN und KVM-over-LAN support |
Formfaktor | 4 Höheneinheiten |
Anwendungsgebiete | AI / Deep Learning | High Performance Computing |
Stromanschluss | 4x 2200W redundante Netzteile |
NVIDIA H100 PCIE
Unerreichte Leistung, Skalierbarkeit und
Sicherheit für Mainstream-Server
Der NVIDIA H100 Tensor Core Grafikprozessor ermöglicht einen gewaltigen Sprung für groß angelegte KI-Leistung, Skalierbarkeit und Sicherheit für jedes Rechenzentrum und beinhaltet die NVIDIA AI Enterprise Software-Suite zur Optimierung der KI-Entwicklung und Bereitstellung. Mit dem NVIDIA NVLINK Switch System zur direkten Kommunikation zwischen bis zu 256 GPUs beschleunigt der H100 Workloads im Exascale-Maßstab mit einer dedizierten Transformer Engine für Sprachmodelle mit Billionen von Parametern. Für kleine Aufgaben kann der H100 auf rechtsseitige Multi-Instance GPU (MIG)-Partitionen unterteilt werden. Mit Hopper Confidential Computing kann diese skalierbare Rechenleistung sensible Anwendungen in einer gemeinsam genutzten Rechenzentrums Infrastruktur sichern. Die NVIDIA AI Enterprise Software Suite verkürzt die Entwicklungszeit Entwicklung und vereinfacht die Bereitstellung von KI-Workloads und macht den H100 zum leistungsfähigste End-to-End-KI- und HPC-Rechenzentrumsplattform.
HIGHEST AI AND HPC MAINSTREAM PERFORMANCE
3.2PF FP8 (5X) | 1.6PF FP16 (2.5X) | 800TF TF32 (2.5X) | 48TF FP64 (2.5X)
6X faster Dynamic Programming with DPX Instructions
2TB/s , 80GB HBM2e memory
HIGHEST COMPUTE ENERGY EFFICIENCY
Configurable TDP - 150W to 350W
2 Slot FHFL mainstream form factor
HIGHEST UTILIZATION EFFICIENCY AND SECURITY
7 Fully isolated & secured instances, guaranteed QoS
2 nd Gen MIG | Confidential Computing
HIGHEST PERFORMING SERVER CONNECTIVITY
128GB/s PCI Gen5
600 GB/s GPU-2-GPU connectivity (5X PCIe Gen5)
up to 2 GPUs with NVLink Bridge
Anfrage NVIDIA H100 GPU Testdrive
Vielen Dank für Ihr Interesse an einem kostenlosen NVIDIA H100 PCI-e GPU Test Drive.
Sie benötigen weitere Informationen, eine persönliche Beratung oder ein Angebot? Bitte senden Sie uns eine Mail über unser Kontaktformular! Wir freuen uns auf Ihre Kontaktaufnahme und werden uns baldmöglichst mit Ihnen in Verbindung setzen.