NVIDIALa GPU Technology Conference (GTC) di è qui!
Il fondatore e CEO dell'azienda Jensen Huang ha ufficialmente dato il via alla conferenza annuale dicendo "Spero che tu capisca che questo non è un concerto, questa è una conferenza di sviluppatori", mentre saliva sul palco in un'arena affollata solitamente riservata ai concerti e all'hockey su ghiaccio. Giochi.
Durante il discorso di apertura, ha svelato varie tecnologie che vanno dalla piattaforma Blackwell al modello fondamentale per i robot umanoidi e molto altro ancora.
Ecco alcuni degli annunci chiave di GTC fatti dall'azienda il primo giorno!
La piattaforma NVIDIA Blackwell è qui!
Alla conferenza GTC, NVIDIA ha annunciato la tanto pubblicizzata piattaforma NVIDIA Blackwell per consentire alle organizzazioni di creare ed eseguire un'intelligenza artificiale generativa in tempo reale su modelli linguistici di grandi dimensioni da trilioni di parametri con costi e consumi energetici fino a 25 volte inferiori rispetto al suo predecessore.
È costruito con un processo TSMC 4NP personalizzato e un collegamento chip-to-chip che collega due die GPU, racchiudendo 208 miliardi di transistor in una singola GPU.
L'architettura della GPU Blackwell presenta sei tecnologie che accelereranno l'elaborazione dei dati, la simulazione ingegneristica, l'automazione della progettazione elettronica, la progettazione di farmaci, quantum informatica e intelligenza artificiale generativa.
Tra le molte organizzazioni che dovrebbero adottare Blackwell ci sono Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla e xAI.
Supercomputer AI alimentato da Blackwell
NVIDIA ha annunciato NVIDIA DGX SuperPOD, un supercomputer AI di prossima generazione basato sui superchip Grace Blackwell di NVIDIA.
Il supercomputer è progettato per elaborare modelli da trilioni di parametri con tempi di attività costanti per l’addestramento dell’IA generativa su vasta scala e carichi di lavoro di inferenza.
Il nuovo DGX SuperPOD presenta un'architettura rack-scale raffreddata a liquido, che fornisce 11.5 exaflop di potenza di supercalcolo con precisione FP4 e 240 terabyte di memoria veloce. Il sistema è costruito con i sistemi NVIDIA DGX e può raggiungere altezze ancora maggiori con rack aggiuntivi.
Ogni sistema DGX è composto da 36 Superchip NVIDIA, che includono 36 CPU NVIDIA Grace e 72 GPU NVIDIA Blackwell. Questi chip sono interconnessi per creare un singolo supercomputer tramite la tecnologia NVIDIA NVLink di quinta generazione.
I Superchip GB200 sono in grado di fornire un incremento delle prestazioni fino a 30 volte rispetto alla GPU NVIDIA Tensor Core per carichi di lavoro di inferenza di modelli linguistici di grandi dimensioni.
Piattaforma cloud di ricerca 6G
NVIDIA ha presentato una piattaforma di ricerca 6G che consente ai ricercatori di sviluppare la fase successiva della tecnologia wireless.
La piattaforma NVIDIA 6G Research Cloud è aperta, flessibile e interconnessa e offre ai ricercatori una suite completa per far avanzare l'intelligenza artificiale per la tecnologia RAN (radio access network).
La piattaforma consente alle organizzazioni di accelerare lo sviluppo delle tecnologie 6G che connetteranno trilioni di dispositivi con le infrastrutture cloud, gettando le basi per un mondo iper-intelligente supportato da veicoli autonomi, spazi intelligenti e un'ampia gamma di realtà estesa ed esperienze educative immersive. e robot collaborativi.
La piattaforma NVIDIA 6G Research Cloud è composta da tre elementi fondamentali:
- NVIDIA Antenna Omniverse Digital Twin per 6G
- NVIDIA Aerial RAN con accelerazione CUDA
- NVIDIA Sionna Neural Radio Framework
Ansys, Arm, ETH Zurich, Fujitsu, Keysight, Nokia, Northeastern University, Rohde & Schwarz, Samsung, SoftBank Corp. e Viavi sono tra i primi ad adottarlo e ecosystem partner.
Partnership Google x NVIDIA
Google Cloud e NVIDIA hanno teamed è stato sviluppato per offrire alla comunità del machine learning l'accesso a una tecnologia che accelera la loro capacità di creare, scalare e gestire facilmente applicazioni di intelligenza artificiale generativa.
Google ha annunciato l'adozione della nuova piattaforma informatica NVIDIA Grace Blackwell AI, nonché del servizio NVIDIA DGX Cloud su Google Cloud.
Inoltre, la piattaforma DGX Cloud basata su NVIDIA H100 è ora disponibile a livello generale su Google Cloud.
Basandosi sulla recente collaborazione per ottimizzare la famiglia di modelli aperti Gemma, Google adotterà anche i microservizi di inferenza NIM NVIDIA per fornire agli sviluppatori una piattaforma aperta e flessibile per addestrare e implementare utilizzando i loro strumenti e framework preferiti.
Le aziende hanno inoltre annunciato il supporto per JAX su GPU NVIDIA e istanze Vertex AI basate su GPU NVIDIA H100 e L4 Tensor Core.
I componenti chiave dell’espansione della partnership includono:
- Adozione di NVIDIA Grace Blackwell
- DGX Cloud basato su Grace Blackwell in arrivo su Google Cloud
- Supporto per JAX su GPU
- NIM NVIDIA su Google Kubernetes Engine (GKE)
- Supporto per NVIDIA NeMo
- Vertex AI e Dataflow espandono il supporto per le GPU NVIDIA
Progetto GR00T Modello di Fondazione
NVIDIA ha annunciato il Progetto GR00T, un modello di fondazione generico destinato ai robot umanoidi. Il progetto mira a promuovere scoperte nel campo della robotica e dell’intelligenza artificiale incorporata.
Nell'ambito di questa iniziativa, NVIDIA ha anche introdotto un nuovo computer, Jetson Thor, progettato specificamente per i robot umanoidi e basato sul system-on-a-chip (SoC) NVIDIA Thor.
Jetson Thor è stato creato come una nuova piattaforma informatica in grado di eseguire compiti complessi e di interagire in modo sicuro e naturale con persone e macchine.
Il System on a Chip (SoC) include una nuova GPU basata sull'architettura NVIDIA Blackwell. Viene fornito con un motore di trasformazione che fornisce 800 teraflop di prestazioni IA in virgola mobile a 8 bit e può gestire modelli di IA generativa multimodale come GR00T.
Semplifica le attività di progettazione e integrazione con un processore di sicurezza funzionale integrato, un cluster CPU ad alte prestazioni e 100 GB di larghezza di banda Ethernet.
NVIDIA sta costruendo una piattaforma AI completa per le principali aziende di robot umanoidi come 1X Technologies, Agility Robotics, Apptronik, Boston Dynamics, Figure AI, Fourier Intelligence, Sanctuary AI, Unitree Robotics e XPENG Robotics, tra gli altri.
Inoltre, l’azienda ha apportato aggiornamenti significativi alla piattaforma robotica NVIDIA Isaac, che ora include modelli e strumenti di base per l’intelligenza artificiale generativa per la simulazione e l’infrastruttura del flusso di lavoro AI.
I robot alimentati da GR00T, che sta per Generalist Robot 00 Technology, saranno progettati per comprendere il linguaggio naturale ed emulare i movimenti osservando le azioni umane, apprendendo rapidamente la coordinazione, la destrezza e altre abilità per navigare, adattarsi e interagire con il mondo reale.
NVIDIA DRIVE, al servizio della prossima generazione di trasporti
NVIDIA ha annunciato che diverse importanti aziende del settore dei trasporti hanno iniziato a utilizzare i computer per auto centralizzati NVIDIA DRIVE Thor per alimentare le loro prossime flotte commerciali e consumer.
Comprende veicoli e camion a nuova energia, nonché veicoli autonomi come robotaxi, robotbus e veicoli per le consegne dell’ultimo miglio.
DRIVE Thor è una piattaforma informatica di bordo progettata per applicazioni di intelligenza artificiale generativa, che stanno diventando fondamentali nel settore automobilistico. Questa piattaforma AV di prossima generazione integrerà la nuova architettura NVIDIA Blackwell, progettata per carichi di lavoro di trasformazione, LLM e intelligenza artificiale generativa.
Microservizi di intelligenza artificiale generativa per promuovere la scoperta di farmaci, la tecnologia medica e la salute digitale
L'azienda ha inoltre lanciato oltre due dozzine di nuovi microservizi che consentono alle imprese sanitarieriseSiamo in tutto il mondo per sfruttare i più recenti progressi nell'intelligenza artificiale generativa da qualsiasi luogo e su qualsiasi cloud.
NVIDIA ha recentemente lanciato microservizi sanitari ottimizzati con modelli e flussi di lavoro NIM AI. Questi microservizi sono dotati di API standard del settore che possono essere utilizzate per creare e distribuire applicazioni native del cloud.
I microservizi sanitari NVIDIA offrono funzionalità avanzate come imaging, linguaggio naturale e riconoscimento vocale, nonché generazione, previsione e simulazione di biologia digitale. Queste funzionalità possono essere utilizzate come elementi costitutivi per sviluppare e distribuire applicazioni basate su cloud per il settore sanitario.
Inoltre, NVIDIA ha accelerato software È ora possibile accedere ai kit e agli strumenti di sviluppo, tra cui Parabricks, MONAI, NeMo, Riva e Metropolis come microservizi NVIDIA CUDA-X per accelerare i flussi di lavoro sanitari per la scoperta di farmaci, l'imaging medico e l'analisi genomica.
In totale sono stati lanciati 25 microservizi per accelerare la trasformazione delle aziende sanitarie attraverso l’uso dell’intelligenza artificiale generativa.
Questa nuova tecnologia offre numerose opportunità per aziende farmaceutiche, medici e ospedali, come lo screening di trilioni di composti farmaceutici per i progressi medici, la raccolta di dati migliori sui pazienti per il rilevamento precoce delle malattie e l’implementazione di assistenti digitali più intelligenti.
Con i microservizi, ricercatori, sviluppatori e professionisti possono facilmente integrare l’intelligenza artificiale in applicazioni nuove ed esistenti ed eseguirle ovunque, nel cloud o on-premise, con funzionalità di copilota per migliorare il loro lavoro salvavita.
Gemello digitale per il clima della Terra
NVIDIA ha introdotto la sua piattaforma cloud digitale gemellare terrestre Earth-2, che mira a combattere le perdite economiche di 140 miliardi di dollari causate da condizioni meteorologiche estreme dovute ai cambiamenti climatici.
La piattaforma cloud Earth-2 presenta nuove API cloud su NVIDIA DGX Cloud che consentono agli utenti di creare emulazioni basate sull'intelligenza artificiale e fornire simulazioni interattive e ad alta risoluzione del tempo e del clima su una scala senza precedenti, dall'atmosfera globale alla copertura nuvolosa locale.
Se combinate con i dati proprietari di aziende del settore della tecnologia climatica da 20 miliardi di dollari, le API di Earth-2 possono aiutare gli utenti a fornire avvisi e previsioni aggiornate in pochi secondi, rispetto alla tradizionale modellazione basata sulla CPU che potrebbe richiedere minuti o ore.
Switch di rete progettati per l'intelligenza artificiale su larga scala
NVIDIA ha anche annunciato una nuova ondata di switch di rete: la serie X800.
È la prima piattaforma di rete al mondo in grado di offrire un throughput end-to-end di 800 Gb/s, NVIDIA Quantum-X800 InfiniBand e NVIDIA Spectrum-X800 Ethernet ampliano i confini delle prestazioni di rete per i carichi di lavoro di elaborazione e intelligenza artificiale.
Sono caratterizzati software che accelera ulteriormente le applicazioni AI, cloud, elaborazione dati e HPC in ogni tipo di data center, compresi quelli che incorporano la linea di prodotti basati sull'architettura NVIDIA Blackwell appena rilasciata.
Si tratta di una capacità di larghezza di banda 5 volte maggiore e di un aumento di 9 volte di 14.4 Tflop di elaborazione in rete con il protocollo Scalable Hierarchical Aggregation and Reduction Protocol (SHARPv4) di NVIDIA rispetto alla generazione precedente.
La piattaforma Spectrum-X800 offre prestazioni di rete ottimizzate per cloud AI e azienderise infrastruttura. Utilizzando lo switch Spectrum SN5600 da 800 Gb/s e NVIDIA BlueField-3 SuperNIC, la piattaforma Spectrum-X800 fornisce set di funzionalità avanzate cruciali per cloud AI generativi multi-tenant e aziende di grandi dimensionirises.
Cloud Quantum-Microservizi di simulazione informatica
NVIDIA ha inoltre lanciato un servizio cloud che consente a ricercatori e sviluppatori di oltrepassare i limiti quantum esplorazione informatica in settori scientifici chiave, tra cui chimica, biologia e scienza dei materiali.
NVIDIA Quantum Il cloud si basa sul CUDA-Q open source dell'azienda quantum piattaforma informatica, utilizzata da tre quarti delle aziende che la implementano quantum unità di elaborazione o QPU.
Come microservizio, consente agli utenti per la prima volta di creare e testare novità nel cloud quantum algoritmi e applicazioni, inclusi potenti simulatori e strumenti per l'ibrido quantum-programmazione classica.