Microsoft und Nvidia kündigen NDv2 an: den weltweit größten GPU-beschleunigten Cloud-basierten Supercomputer
Inhaltsverzeichnis:
Microsofts Engagement für die Cloud lässt keinen Raum für Zweifel. Azure steht im Mittelpunkt, das Streaming-Spiel kommt mit Project xCloud, einer Alternative zu Google Stadia, die auf dem Papier mit einem Erdrutschsieg gewinnt, und jetzt wissen wir, dass Microsoft und Nvidia NDv2, den Cloud-basierten Supercomputer, angekündigt haben und das weltweit größte GPU-beschleunigte Laufwerk
Die Ankündigung erfolgte auf der SC19-Veranst altung in Denver, die dem Supercomputing gewidmet war. Es war die gemeinsame Arbeit von Microsoft und Nvidia, die die Ankunft des neuen NDv2-Supercomputers ermöglicht hat.
Super Cloud Computing
Bei der Veranst altung gab es zwei weitere Ankündigungen, bei denen Nvidia die Nvidia Magnum IO, eine Software-Suite für Hilfe, auf die Bühne brachte Wissenschaftler und Forscher, die mit künstlicher Intelligenz arbeiten, um riesige Datenmengen in Minuten zu verarbeiten. Gleichzeitig führte das Unternehmen eine Designplattform ein, über die Unternehmen GPU-beschleunigte Arm-basierte Server schneller und effizienter erstellen können. Und daneben der neue Supercomputer NDv2.
Für diejenigen, die sie nicht kennen, NDv2-Geräte sind Systeme, die für sehr spezifische Aufgaben entwickelt und erstellt wurden Sie versuchen, eine Menge von auszuführen die anspruchsvollsten verteilten Aufgaben von HPC (High Performance Computing), KI sowie Aufgaben des maschinellen Lernens.
Der NDv2 ist der größte GPU-beschleunigte Cloud-basierte Supercomputer der Welt Im Inneren befinden sich 8 NVIDIA Tesla V100 GPUs, die NVLink mit jeweils 32 Verbindungen verbindet GB HBM2-Speicher, 40 Kerne ohne Hyperthreading des Intel Xeon Platinum 8168-Prozessors und 672 GiB Systemspeicher. Dieser Supercomputer verfügt über 100 Gigabit EDR InfiniBand von Mellanox, wodurch er auf bis zu 800 NVIDIA V100 Tensor Core GPUs skaliert werden kann, die mit Mellanox InfiniBand verbunden sind.
Mit dem NDv2 wurde Bert getestet, ein Konversations-KI-Modell und die Leistungsfähigkeit wurde dadurch demonstriert, dass es nur drei Stunden dauerte seine Funktionen ausnutzen. Es ist ein Beispiel für die Leistung, die diese Geräte bieten.
Dieser Schritt von Nvidia und Microsoft kommt zum einen, wenn Intel seine Dominanz in Rechenzentren bedroht sieht und auch bei AMD als ein Alternative zu Intel-CPUs dank SoC Arm.Aber es ist auch so, dass Amazon Web Service fast parallel dazu berichtete, dass es einige seiner EC2-Instanzen in der Cloud starten würde, die von AMD EPYC Rome-Prozessoren unterstützt werden, oder dass Intel seine Pone Vecchio-GPU für Rechenzentren vorstellen würde.
Weitere Informationen | Nvidia