130.000 Blackwell-GPUs

Oracle bietet ersten Zettascale-Cloud-Computing-Cluster an

Quelle: Foto: Oracle
13.09.2024
Oracle kündigte auf der Oracle CloudWorld den ersten Zettascale-Cloud-Computing-Cluster an. Oracle Cloud Infrastructure (OCI) bietet damit einen der größten KI-Supercomputer in der Cloud an – verfügbar mit bis zu 131.072 Nvidia Blackwell-GPUs.
OCI nimmt jetzt Bestellungen für einen der größten KI-Supercomputer in der Cloud entgegen – mit bis zu 131.072 Nvidia Blackwell-GPUs bietet dieser Cluster eine beispiellose Spitzenleistung von 2,4 Zettaflops. Die maximale Größe des OCI Supercluster bietet mehr als dreimal so viele GPUs wie der Frontier-Supercomputer und mehr als sechsmal so viele wie andere Hyperscaler. OCI Supercluster umfasst OCI Compute Bare Metal, RoCEv2 mit extrem niedriger Latenz mit ConnectX-7-NICs und ConnectX-8-SuperNICs oder Nvidia Quantum-2-InfiniBand-basierte Netzwerke sowie eine Auswahl an HPC-Speichern.  
„Wir verfügen über eines der umfassendsten Angebote an KI-Infrastruktur und unterstützen Kunden, die einige der anspruchsvollsten KI-Workloads in der Cloud ausführen“, so Mahesh Thiagarajan, Executive Vice President von Oracle Cloud Infrastructure. „Mit der verteilten Cloud von Oracle haben Kunden die Flexibilität, Cloud- und KI-Services überall dort einzusetzen, wo sie möchten, und dabei ein Höchstmaß an Daten- und KI-Souveränität zu wahren.“ 

Weltweit erster Zettascale-Computing-Cluster 

OCI Supercluster können mit OCI Compute bestellt werden, das entweder von Nvidia H100- oder H200-Tensor-Core-GPUs oder Nvidia Blackwell-GPUs angetrieben wird. OCI Supercluster mit H100-GPUs können auf bis zu 16.384 GPUs mit einer Leistung von bis zu 65 ExaFLOPS und einem aggregierten Netzwerkdurchsatz von 13 PB/s skaliert werden. OCI Supercluster mit H200-GPUs werden auf 65.536 GPUs mit einer Leistung von bis zu 260 ExaFLOPS und einem aggregierten Netzwerkdurchsatz von 52 PB/s skaliert und sollen noch in diesem Jahr verfügbar sein. 
OCI Supercluster mit Nvidia GB200 NVL72 flüssigkeitsgekühlten Bare-Metal-Instanzen werden NVLink und NVLink Switch verwenden, um bis zu 72 Blackwell-GPUs in einer einzigen NVLink-Domäne mit einer Gesamtbandbreite von 129,6 TB/s miteinander kommunizieren zu lassen. Nvidia Blackwell-GPUs, die in der ersten Hälfte des Jahres 2025 verfügbar sein werden, mit NVLink der fünften Generation, NVLink Switch und Cluster-Netzwerken ermöglichen eine nahtlose GPU-GPU-Kommunikation in einem einzigen Cluster. 
„Im Wettlauf um Innovationen durch KI ist der Zugang zu leistungsstarken Rechenclustern und KI-Software für Unternehmen, Forscher und Staaten von entscheidender Bedeutung“, so Ian Buck, Vice President für Hyperscale und High Performance Computing bei Nvidia. „Die Full-Stack-KI-Computing-Plattform von Nvidia auf der breit verteilten Cloud von Oracle wird KI-Rechenkapazitäten in beispiellosem Umfang bereitstellen, um KI-Bemühungen weltweit voranzutreiben und Organisationen überall dabei zu helfen, Forschung, Entwicklung und Einsatz zu beschleunigen.“ 

Autor(in)

Das könnte sie auch interessieren
Ifo-Umfrage
Viele Betriebe zögern bei Künstlicher Intelligenz
Digitalisierungsmesse
DIGITAL X - Technologie mit Impact
Austausch mit Beirat
Regulierung von künstlicher Intelligenz in der Schweiz
Innovation World 2024
Lenovo Yoga und IdeaPad mit neuer KI-Technologie für Privatanwender
Mehr News?
Besuchen Sie unsere Seite ...
https://www.com-magazin.de
nach oben