NVIDIADie GPU Technology Conference (GTC) ist da!
Der Gründer und CEO des Unternehmens, Jensen Huang, hat die jährliche Konferenz offiziell mit den Worten eröffnet: „Ich hoffe, Ihnen ist klar, dass dies kein Konzert, sondern eine Entwicklerkonferenz ist“, als er die Bühne in einer überfüllten Arena betrat, die normalerweise für Konzerte und Eishockey reserviert ist Spiele.
Während der Grundsatzrede stellte er verschiedene Technologien vor, die von der Blackwell-Plattform bis zum Basismodell für humanoide Roboter und vielem mehr reichten.
Hier sind einige der wichtigsten Ankündigungen von GTC, die das Unternehmen am ersten Tag gemacht hat!
Die NVIDIA Blackwell-Plattform ist da!
Auf der GTC-Konferenz kündigte NVIDIA die viel gepriesene NVIDIA Blackwell-Plattform an, die es Unternehmen ermöglicht, generative KI in Echtzeit auf großen Sprachmodellen mit Billionen Parametern zu entwickeln und auszuführen, und das bei bis zu 25-mal geringeren Kosten und Energieverbrauch als der Vorgänger.
Es basiert auf einem benutzerdefinierten 4NP-TSMC-Prozess und einer Chip-zu-Chip-Verbindung, die zwei GPU-Chips verbindet und 208 Milliarden Transistoren in einer einzigen GPU vereint.
Die Blackwell-GPU-Architektur verfügt über sechs Technologien, die die Datenverarbeitung, technische Simulation, elektronische Designautomatisierung, Arzneimitteldesign und quantum Computing und generative KI.
Zu den vielen Organisationen, von denen erwartet wird, dass sie Blackwell einführen, gehören Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla und xAI.
KI-Supercomputer mit Blackwell-Antrieb
NVIDIA hat den NVIDIA DGX SuperPOD angekündigt, einen KI-Supercomputer der nächsten Generation, der auf den Grace Blackwell Superchips von NVIDIA basiert.
Der Supercomputer ist für die Verarbeitung von Billionen-Parameter-Modellen mit konstanter Betriebszeit für generative KI-Trainings- und Inferenz-Workloads im Großmaßstab ausgelegt.
Der neue DGX SuperPOD verfügt über eine flüssigkeitsgekühlte Rack-Architektur und bietet 11.5 Exaflops Supercomputing-Leistung bei FP4-Präzision und 240 Terabyte schnellen Speicher. Das System basiert auf NVIDIA DGX-Systemen und kann mit zusätzlichen Racks auf noch größere Höhen skaliert werden.
Jedes DGX-System besteht aus 36 NVIDIA-Superchips, darunter 36 NVIDIA Grace-CPUs und 72 NVIDIA Blackwell-GPUs. Diese Chips werden über die NVIDIA NVLink-Technologie der fünften Generation zu einem einzigen Supercomputer verbunden.
Die GB200-Superchips sind in der Lage, im Vergleich zur NVIDIA Tensor Core-GPU eine bis zu 30-fache Leistungssteigerung für große Sprachmodell-Inferenz-Workloads zu liefern.
6G Research Cloud-Plattform
NVIDIA hat eine 6G-Forschungsplattform vorgestellt, die es Forschern ermöglicht, die nächste Phase der drahtlosen Technologie zu entwickeln.
Die NVIDIA 6G Research Cloud-Plattform ist offen, flexibel und vernetzt und bietet Forschern eine umfassende Suite zur Weiterentwicklung der KI für die Radio Access Network (RAN)-Technologie.
Die Plattform ermöglicht es Unternehmen, die Entwicklung von 6G-Technologien zu beschleunigen, die Billionen von Geräten mit den Cloud-Infrastrukturen verbinden und so den Grundstein für eine hyperintelligente Welt legen, die durch autonome Fahrzeuge, intelligente Räume und eine breite Palette erweiterter Realität und immersiver Bildungserlebnisse unterstützt wird und kollaborative Roboter.
Die NVIDIA 6G Research Cloud-Plattform besteht aus drei Grundelementen:
- NVIDIA Aerial Omniverse Digital Twin für 6G
- NVIDIA Aerial CUDA-beschleunigtes RAN
- NVIDIA Sionna Neural Radio Framework
Ansys, Arm, ETH Zürich, Fujitsu, Keysight, Nokia, Northeastern University, Rohde & Schwarz, Samsung, SoftBank Corp. und Viavi gehören zu den ersten Anwendern und ecosystem Partner.
Google x NVIDIA-Partnerschaft
Google Cloud und NVIDIA haben teamhat sich zum Ziel gesetzt, der Machine-Learning-Community Zugang zu Technologien zu bieten, die ihre Fähigkeit beschleunigen, generative KI-Anwendungen einfach zu erstellen, zu skalieren und zu verwalten.
Google gab die Einführung der neuen NVIDIA Grace Blackwell AI-Computing-Plattform sowie des NVIDIA DGX Cloud-Dienstes in Google Cloud bekannt.
Darüber hinaus ist die auf NVIDIA H100 basierende DGX Cloud-Plattform jetzt allgemein in Google Cloud verfügbar.
Aufbauend auf der jüngsten Zusammenarbeit zur Optimierung der Gemma-Familie offener Modelle wird Google auch NVIDIA NIM-Inferenz-Microservices einführen, um Entwicklern eine offene, flexible Plattform zum Trainieren und Bereitstellen mit ihren bevorzugten Tools und Frameworks zu bieten.
Die Unternehmen kündigten außerdem die Unterstützung von JAX auf NVIDIA-GPUs und Vertex AI-Instanzen mit NVIDIA H100- und L4 Tensor Core-GPUs an.
Zu den wichtigsten Bestandteilen der Partnerschaftserweiterung gehören:
- Einführung von NVIDIA Grace Blackwell
- Die von Grace Blackwell betriebene DGX Cloud kommt zu Google Cloud
- Unterstützung für JAX auf GPUs
- NVIDIA NIM auf Google Kubernetes Engine (GKE)
- Unterstützung für NVIDIA NeMo
- Vertex AI und Dataflow erweitern die Unterstützung für NVIDIA-GPUs
Projekt GR00T-Grundlagenmodell
NVIDIA hat das Projekt GR00T angekündigt, ein Allzweck-Grundmodell für humanoide Roboter. Ziel des Projekts ist es, Durchbrüche in der Robotik und der verkörperten KI voranzutreiben.
Im Rahmen dieser Initiative hat NVIDIA auch einen neuen Computer vorgestellt, Jetson Thor, der speziell für humanoide Roboter entwickelt wurde und auf dem NVIDIA Thor System-on-a-Chip (SoC) basiert.
Jetson Thor wurde als neue Computerplattform entwickelt, die in der Lage ist, komplexe Aufgaben auszuführen und sicher und natürlich mit Menschen und Maschinen zu interagieren.
Das System on a Chip (SoC) enthält eine neue GPU, die auf der NVIDIA Blackwell-Architektur basiert. Es verfügt über eine Transformer-Engine, die 800 Teraflops 8-Bit-Gleitkomma-KI-Leistung bietet und multimodale generative KI-Modelle wie GR00T verarbeiten kann.
Es vereinfacht den Design- und Integrationsaufwand mit einem integrierten funktionalen Sicherheitsprozessor, einem leistungsstarken CPU-Cluster und 100 GB Ethernet-Bandbreite.
NVIDIA baut eine umfassende KI-Plattform für führende Unternehmen für humanoide Roboter auf, darunter 1X Technologies, Agility Robotics, Apptronik, Boston Dynamics, Figure AI, Fourier Intelligence, Sanctuary AI, Unitree Robotics und XPENG Robotics.
Darüber hinaus hat das Unternehmen erhebliche Verbesserungen an der NVIDIA Isaac-Robotikplattform vorgenommen, die nun generative KI-Grundlagenmodelle und Tools für Simulation und KI-Workflow-Infrastruktur umfasst.
Mit GR00T betriebene Roboter, die für Generalist Robot 00 Technology stehen, werden so konzipiert, dass sie natürliche Sprache verstehen und Bewegungen nachahmen, indem sie menschliche Handlungen beobachten – und so schnell Koordination, Geschicklichkeit und andere Fähigkeiten erlernen, um in der realen Welt zu navigieren, sich anzupassen und mit ihr zu interagieren.
NVIDIA DRIVE treibt die nächste Transportgeneration an
NVIDIA hat bekannt gegeben, dass mehrere führende Unternehmen der Transportbranche damit begonnen haben, zentralisierte Autocomputer von NVIDIA DRIVE Thor zu nutzen, um ihre künftigen Privat- und Gewerbeflotten mit Strom zu versorgen.
Dazu gehören Fahrzeuge und Lastwagen mit neuer Energie sowie autonome Fahrzeuge wie Robotaxis, Robobusse und Lieferfahrzeuge für die letzte Meile.
DRIVE Thor ist eine fahrzeuginterne Computerplattform, die für generative KI-Anwendungen entwickelt wurde, die in der Automobilindustrie immer wichtiger werden. Diese AV-Plattform der nächsten Generation wird die neue NVIDIA Blackwell-Architektur integrieren, die für Transformer-, LLM- und generative KI-Workloads entwickelt wurde.
Generative KI-Mikrodienste zur Förderung der Arzneimittelforschung, Medizintechnik und digitalen Gesundheit
Das Unternehmen hat außerdem über zwei Dutzend neue Mikrodienste eingeführt, die Unternehmen im Gesundheitswesen ermöglichenriseEs ist weltweit möglich, die neuesten Fortschritte in der generativen KI von überall und in jeder Cloud zu nutzen.
NVIDIA hat kürzlich Microservices für das Gesundheitswesen eingeführt, die mit NIM-KI-Modellen und -Workflows optimiert wurden. Diese Microservices sind mit branchenüblichen APIs ausgestattet, die zum Erstellen und Bereitstellen cloudnativer Anwendungen verwendet werden können.
Die NVIDIA-Microservices für das Gesundheitswesen bieten erweiterte Funktionen wie Bildgebung, natürliche Sprache und Spracherkennung sowie die Generierung, Vorhersage und Simulation digitaler Biologie. Diese Funktionen können als Bausteine für die Entwicklung und Bereitstellung cloudbasierter Anwendungen für die Gesundheitsbranche verwendet werden.
Darüber hinaus beschleunigte NVIDIA software Auf Entwicklungskits und Tools, darunter Parabricks, MONAI, NeMo, Riva und Metropolis, kann jetzt als NVIDIA CUDA-X-Microservices zugegriffen werden, um Arbeitsabläufe im Gesundheitswesen für die Arzneimittelentwicklung, medizinische Bildgebung und Genomanalyse zu beschleunigen.
Insgesamt wurden 25 Microservices gestartet, um die Transformation von Gesundheitsunternehmen durch den Einsatz generativer KI zu beschleunigen.
Diese neue Technologie bietet Pharmaunternehmen, Ärzten und Krankenhäusern zahlreiche Möglichkeiten, beispielsweise das Screening von Billionen Arzneimittelwirkstoffen auf medizinische Fortschritte, das Sammeln besserer Patientendaten zur Früherkennung von Krankheiten und die Implementierung intelligenterer digitaler Assistenten.
Mit den Microservices können Forscher, Entwickler und Praktiker KI problemlos in neue und bestehende Anwendungen integrieren und sie überall ausführen, entweder in der Cloud oder vor Ort, mit Copilot-Funktionen, um ihre lebensrettende Arbeit zu verbessern.
Digitaler Zwilling des Erdklimas
NVIDIA hat seine Earth-2-Klima-Digital-Twin-Cloud-Plattform eingeführt, die darauf abzielt, die wirtschaftlichen Verluste in Höhe von 140 Milliarden US-Dollar zu bekämpfen, die durch extreme Wetterbedingungen aufgrund des Klimawandels verursacht werden.
Die Cloud-Plattform Earth-2 verfügt über neue Cloud-APIs auf NVIDIA DGX Cloud, die es Benutzern ermöglichen, KI-gestützte Emulationen zu erstellen und interaktive, hochauflösende Simulationen von Wetter und Klima in beispiellosem Maßstab bereitzustellen, die von der globalen Atmosphäre bis zur lokalen Wolkendecke reichen.
In Kombination mit proprietären Daten von Unternehmen der 20-Milliarden-Dollar-Klimatechnologiebranche können Earth-2-APIs Benutzern helfen, Warnungen und aktualisierte Prognosen in Sekundenschnelle bereitzustellen, im Vergleich zur herkömmlichen CPU-gesteuerten Modellierung, die Minuten oder Stunden dauern kann.
Netzwerk-Switches, die für KI im großen Maßstab konzipiert sind
NVIDIA kündigte außerdem eine neue Welle von Netzwerk-Switches an – die X800-Serie.
Es ist die weltweit erste Netzwerkplattform, die einen durchgängigen Durchsatz von 800 Gbit/s ermöglicht, NVIDIA Quantum-X800 InfiniBand und NVIDIA Spectrum-X800 Ethernet erweitern die Grenzen der Netzwerkleistung für Computer- und KI-Workloads.
Sie verfügen über software Das beschleunigt KI-, Cloud-, Datenverarbeitungs- und HPC-Anwendungen aller Art weiter data center, einschließlich derjenigen, die die neu veröffentlichte Produktpalette auf Basis der NVIDIA Blackwell-Architektur beinhalten.
Dies ist eine 5-mal höhere Bandbreitenkapazität und eine 9-fache Steigerung des In-Network Computing um 14.4 Tflops mit NVIDIAs Scalable Hierarchical Aggregation and Reduction Protocol (SHARPv4) im Vergleich zur vorherigen Generation.
Die Spectrum-X800-Plattform bietet optimierte Netzwerkleistung für KI-Cloud und Unternehmenrise Infrastruktur. Durch die Nutzung des Spectrum SN5600 800Gb/s-Switch und der NVIDIA BlueField-3 SuperNIC bietet die Spectrum-X800-Plattform erweiterte Funktionssätze, die für generative KI-Clouds mit mehreren Mandanten und große Unternehmen entscheidend sindrises.
Cloud Quantum-Computersimulations-Microservices
NVIDIA hat außerdem einen Cloud-Dienst eingeführt, der es Forschern und Entwicklern ermöglicht, die Grenzen zu erweitern quantum Computerforschung in wichtigen wissenschaftlichen Bereichen, einschließlich Chemie, Biologie und Materialwissenschaften.
NVIDIA Quantum Die Cloud basiert auf dem Open-Source-Produkt CUDA-Q des Unternehmens quantum Computerplattform, die von drei Vierteln der einsetzenden Unternehmen genutzt wird quantum Verarbeitungseinheiten oder QPUs.
Als Microservice ermöglicht es Nutzern erstmals, in der Cloud Neues zu erstellen und zu testen quantum Algorithmen und Anwendungen – einschließlich leistungsstarker Simulatoren und Tools für Hybrid quantum-klassische Programmierung.