06571 / 9114-0

Ihr Warenkorb

Fujitsu NVIDIA A30

  • Artikel-Nr.: CF35961
  • Herst.-Nr.: PY-VG4A5
  • eClassID: 19030309
  • EAN-Nr.: 4065221329787
10.788,63 €*
  bestellt
Staffelpreise anzeigen
2 Stück:10.630,74 €
5 Stück:10.578,12 €
10.788,63 €*
  bestellt
In den Warenkorb

Unser Service

Fragen?
Wir helfen gern.

  06571 / 9114-0

Mo.-Do., 8.00-17.00 Uhr
Fr. 8.00 - 16.00 Uhr

Unser 24h-Lieferservice.

Schnell, zuverlässig und termingerecht.

Weitere Informationen

Beschreibung

NVIDIA A30 - GPU-Rechenprozessor - A30 - 24 GB HBM2 - PCIe 4.0 x16 - für PRIMERGY RX2540 M6

Bringen Sie mit NVIDIA A30 Tensor Core GPUs beschleunigte Leistung für alle Unternehmens-Workloads. Mit den Tensor-Cores der NVIDIA-Ampere-Architektur und der Multi-Instance-GPU (MIG) liefert er sichere Geschwindigkeitssteigerungen bei verschiedenen Workloads, einschließlich KI-Inferenz im großen Maßstab und HPC-Anwendungen (High Performance Computing). Durch die Kombination von schneller Speicherbandbreite und niedrigem Stromverbrauch in einem PCIe-Formfaktor - optimal für Mainstream-Server - ermöglicht der A30 ein elastisches Rechenzentrum und bietet Unternehmen maximalen Nutzen.

Produktmerkmale:

  • Deep Learning Training
    NVIDIA A30 Tensor Cores mit Tensor Float (TF32) bieten eine bis zu 10-fach höhere Leistung als die NVIDIA T4 ohne Code-Änderungen und eine zusätzliche 2-fache Steigerung mit automatischer gemischter Präzision und FP16, was insgesamt eine 20-fache Durchsatzsteigerung bedeutet. In Kombination mit NVIDIA NVLink, PCIe Gen4, NVIDIA Networking und dem NVIDIA Magnum IO SDK ist eine Skalierung auf Tausende von GPUs möglich. Mit Tensor Cores und MIG kann A30 den ganzen Tag über dynamisch für Workloads eingesetzt werden. In Spitzenzeiten kann sie für die Produktionsinferenz verwendet werden, und ein Teil der GPU kann wiederverwendet werden, um dieselben Modelle in den Schwachlastzeiten schnell neu zu trainieren. NVIDIA hat bei MLPerf, dem branchenweiten Benchmark für KI-Training, mehrere Leistungsrekorde aufgestellt.
  • Deep Learning Inferenz
    Die A30 nutzt bahnbrechende Funktionen zur Optimierung von Inferenz-Workloads. Er beschleunigt eine ganze Reihe von Genauigkeiten, von FP64 bis TF32 und INT4. A30 unterstützt bis zu vier MIGs pro Grafikprozessor und ermöglicht den gleichzeitigen Betrieb mehrerer Netzwerke in sicheren Hardware-Partitionen mit garantierter Dienstgüte (QoS). Die strukturelle Sparsity-Unterstützung sorgt für eine bis zu 2-fache Leistungssteigerung, zusätzlich zu den anderen Leistungssteigerungen des A30 bei Inferenzen. Die KI-Leistung von NVIDIA wurde bei der MLPerf-Inferenz demonstriert. In Kombination mit dem NVIDIA Triton Inference Server, mit dem sich KI problemlos in großem Umfang einsetzen lässt, bringt A30 diese bahnbrechende Leistung in jedes Unternehmen.
  • Leistungsstarkes Computing
    Der NVIDIA A30 ist mit FP64 NVIDIA Ampere Architektur Tensor Cores ausgestattet, die den größten Sprung in der HPC-Leistung seit der Einführung der GPUs ermöglichen. In Kombination mit der großen Kapazität des GPU-Speichers mit einer Bandbreite von 933 Gigabyte pro Sekunde (GB/s) können Forscher schnell Berechnungen mit doppelter Genauigkeit durchführen. HPC-Anwendungen können TF32 auch nutzen, um einen höheren Durchsatz bei einfachgenauen, dichten Matrix-Multiplikationsoperationen zu erzielen. Die Kombination aus FP64 Tensor Cores und MIG ermöglicht es Forschungseinrichtungen, die GPU sicher zu partitionieren, um mehreren Forschern Zugang zu Rechenressourcen mit garantierter QoS und maximaler GPU-Auslastung zu ermöglichen. Unternehmen, die KI einsetzen, können die Inferenzfunktionen von A30 in Spitzenlastzeiten nutzen und dieselben Rechenserver in Schwachlastzeiten für HPC- und KI-Trainingsworkloads umfunktionieren.
  • Leistungsstarke Datenanalytik
    Datenwissenschaftler müssen in der Lage sein, riesige Datensätze zu analysieren, zu visualisieren und in Erkenntnisse umzuwandeln. Scale-Out-Lösungen werden jedoch oft durch über mehrere Server verstreute Datensätze behindert. Beschleunigte Server mit A30 bieten die erforderliche Rechenleistung - zusammen mit großem HBM2-Speicher, 933 GB/s Speicherbandbreite und Skalierbarkeit mit NVLink - um diese Arbeitslasten zu bewältigen. In Kombination mit NVIDIA InfiniBand, NVIDIA Magnum IO und der RAPIDS Suite von Open-Source-Bibliotheken, einschließlich des RAPIDS Accelerators für Apache Spark, beschleunigt die NVIDIA-Rechenzentrumsplattform diese riesigen Workloads mit noch nie dagewesener Leistung und Effizienz.
  • Unternehmenstaugliche Nutzung
    A30 mit MIG maximiert die Auslastung der GPU-beschleunigten Infrastruktur. Mit MIG kann ein A30-Grafikprozessor in bis zu vier unabhängige Instanzen partitioniert werden, so dass mehrere Benutzer Zugang zur GPU-Beschleunigung erhalten. MIG funktioniert mit Kubernetes, Containern und Hypervisor-basierter Servervirtualisierung. MIG ermöglicht es Infrastrukturmanagern, für jeden Auftrag eine GPU in der richtigen Größe mit garantierter QoS anzubieten und so die Reichweite der beschleunigten Rechenressourcen auf jeden Benutzer auszudehnen.
  • Mainstream NVIDIA-zertifizierte Systeme
    NVIDIA-zertifizierte Systeme mit NVIDIA A30 vereinen Rechenbeschleunigung und schnelle, sichere NVIDIA-Netzwerke in Servern für Unternehmensrechenzentren, die von NVIDIAs OEM-Partnern gebaut und verkauft werden. Mit diesem Programm können Kunden Systeme für traditionelle und verschiedene moderne KI-Anwendungen aus dem NVIDIA NGC-Katalog in einer einzigen hochleistungsfähigen, kosteneffizienten und skalierbaren Infrastruktur identifizieren, erwerben und einsetzen.

Produktspezifikation:

Allgemein
Gerätetyp
GPU-Rechenprozessor
Bustyp
PCI Express 4.0 x16
Grafikprozessor
NVIDIA A30
Arbeitsspeicher
Grösse
24 GB
Technologie
HBM2
Systemanforderungen
Zusätzliche Anforderungen
2 benachbarte PCIe-Steckplätze
Verschiedenes
Leistungsaufnahme im Betrieb
165 Watt
Tiefe
26.8 cm
Höhe
11.2 cm
Informationen zur Kompatibilität
Entwickelt für
Fujitsu PRIMERGY RX2540 M6

Zubehör

Zu diesem Produkt haben wir leider keine Zubehörartikel gefunden.