NVIDIA, hat kürzlich seine Vision für das Computing der nächsten Generation vorgestellt, das den Schwerpunkt der globalen Informationswirtschaft von Servern auf eine neue Klasse leistungsstarker, flexibler Systeme verlagert data centers.
In der jüngsten Keynote NVIDIA Gründer und CEO Jensen Huang sprach über die jüngste Mellanox-Übernahme von NVIDIA, neue Produkte, die auf der mit Spannung erwarteten NVIDIA Ampere-GPU-Architektur des Unternehmens basieren, und wichtige neue Produkte software Technologien.
Huang sagte:
"The data center ist die neue Recheneinheit.“
NVIDIA A100 – Basierend auf der Ampere-Architektur!
Zuerst stellte Huang die NVIDIA A100 vor, die erste GPU, die auf der NVIDIA Ampere-Architektur basiert und den größten Generations-Leistungssprung der acht GPU-Generationen von NVIDIA bietet. Huang gab außerdem bekannt, dass es für Datenanalysen, wissenschaftliche Berechnungen und Cloud-Grafiken entwickelt wurde und sich in voller Produktion und Auslieferung an Kunden weltweit befindet.
Insbesondere achtzehn der weltweit führenden Dienstanbieter und Systementwickler integrieren sie, darunter Alibaba Cloud, Amazon Web Services, Baidu Cloud, Cisco, Dell Technologies, Google Cloud und Hewlett Packard Enterprise, Microsoft Azure und Oracle.
Der A100 und die darauf aufbauende NVIDIA Ampere-Architektur steigern die Leistung im Vergleich zu seinen Vorgängern um das bis zu 20-fache. Der A100 verfügt über mehr als 54 Milliarden Transistoren und ist damit der weltweit größte 7-Nanometer-Prozessor.
Darüber hinaus verfügt es über Tensorkerne der dritten Generation mit TF32, die das KI-Training mit einfacher Präzision sofort beschleunigen, strukturelle Sparsity-Beschleunigung, Multi-Instanz-GPU und NVLink-Technologie der dritten Generation.
NVIDIA DGX-A100
NVIDIA stellte die dritte Generation seines NVIDIA DGX AI-Systems auf Basis von NVIDIA A100 vor – den NVIDIA DGX A100 – den weltweit ersten 5-Petaflops-Server. Und jeder DGX A100 kann in bis zu 56 Anwendungen unterteilt werden, die alle unabhängig voneinander laufen.
Zu den ersten Empfängern des Systems gehört das Argonne National Laboratory des US-Energieministeriums, das die KI und Rechenleistung des Clusters nutzen wird, um COVID-19 besser zu verstehen und zu bekämpfen; die University of Florida; und das Deutsche Forschungszentrum für Artificial Intelligence.
Huang erklärte:
"A data center Angetrieben von fünf DGX A100-Systemen für KI-Training und Inferenz, die mit nur 28 Kilowatt Leistung betrieben werden und 1 Million US-Dollar kosten, kann es die Arbeit eines typischen Computers erledigen data center mit 50 DGX-1-Systemen für das KI-Training und 600 CPU-Systemen, die 630 Kilowatt verbrauchen und über 11 Millionen US-Dollar kosten.“
Darüber hinaus kündigte Huang auch den DGX SuperPOD der nächsten Generation an. Angetrieben von 140 DGX A100-Systemen und Mellanox-Netzwerktechnologie bietet es eine KI-Leistung von 700 Petaflops.
NVIDIA erweitert sein eigenes data center Mit vier DGX SuperPODs fügt er seinem internen Supercomputer SATURNV 2.8 Exaflops KI-Rechenleistung hinzu – also insgesamt 4.6 Exaflops Gesamtkapazität – und ist damit der schnellste KI-Supercomputer der Welt.
NVIDIA DRIVE
Um autonome Fahrzeuge voranzutreiben, hat das Unternehmen NVIDIA DRIVE vorgestellt. Dabei wird der neue Orin SoC mit einer eingebetteten NVIDIA Ampere GPU verwendet, um die Energieeffizienz und Leistung zu erreichen, um ein 5-Watt-ADAS-System für die Frontscheibe anzubieten und auf ein Robotaxi-System der Stufe 2,000 mit 5 TOPS zu skalieren.
Das NVIDIA-LAUFWERK ecosystem umfasst jetzt Pkw, Lkw, erstklassige Automobilzulieferer und die nächste Generation mobility Dienstleistungen, startups, Kartierungsdienste und Simulation.
Huang sagte:
„Es ist für einen Automobilhersteller jetzt möglich, eine ganze Fahrzeugflotte mit einer Architektur zu entwickeln und dabei die Vorteile zu nutzen software Weiterentwicklung ihrer gesamten Flotte.“
Hauptbildnachweise: NVIDIA
Bleib dran Silicon Canals für mehr europäische Technologie news