NVIDIA, recientemente, reveló su visión para la computación de próxima generación que cambia el enfoque de la economía de la información global de los servidores a una nueva clase de potentes y flexibles data centers.
En el discurso de apertura reciente, NVIDIA El fundador y CEO Jensen Huang habló sobre la reciente adquisición de NVIDIA Mellanox, los nuevos productos basados en la arquitectura de GPU NVIDIA Ampere tan esperada de la compañía y las importantes novedades software Tecnologías.
Huang dijo,
"El data center es la nueva unidad de computación.”
NVIDIA A100: ¡basada en la arquitectura Ampere!
First of Huang presentó NVIDIA A100, la primera GPU basada en la arquitectura NVIDIA Ampere, que brinda el mayor salto generacional de rendimiento de las ocho generaciones de GPU de NVIDIA. Huang también anunció que fue creado para análisis de datos, computación científica y gráficos en la nube, y está en plena producción y envío a clientes de todo el mundo.
En particular, dieciocho de los principales proveedores de servicios y creadores de sistemas del mundo los están incorporando, incluidos Alibaba Cloud, Amazon Web Services, Baidu Cloud, Cisco, Dell Technologies, Google Cloud, Hewlett Packard Enterprise, Microsoft Azure y Oracle.
El A100 y la arquitectura NVIDIA Ampere en la que se basa aumentan el rendimiento hasta 20 veces más que sus predecesores. El A100 tiene más de 54 mil millones de transistores, lo que lo convierte en el procesador de 7 nanómetros más grande del mundo.
Aparte de eso, tiene Tensor Cores de tercera generación con TF32, que acelera el entrenamiento de IA de precisión simple desde el primer momento, aceleración de escasez estructural, GPU de múltiples instancias y tecnología NVLink de tercera generación.
NVIDIA DGX-A100
NVIDIA presentó la tercera generación de su sistema NVIDIA DGX AI basado en NVIDIA A100, NVIDIA DGX A100, el primer servidor de 5 petaflops del mundo. Y cada DGX A100 se puede dividir en hasta 56 aplicaciones, todas ejecutándose de forma independiente.
Entre los destinatarios iniciales del sistema se encuentra el Laboratorio Nacional Argonne del Departamento de Energía de EE. UU., que utilizará la inteligencia artificial y el poder de cómputo del clúster para comprender mejor y combatir el COVID-19; la Universidad de Florida; y el Centro Alemán de Investigación para Artificial Intelligence.
Huang explicó:
"Un data center alimentado por cinco sistemas DGX A100 para entrenamiento e inferencia de IA que funcionan con solo 28 kilovatios de energía que cuestan $ 1 millón pueden hacer el trabajo de un típico data center con 50 sistemas DGX-1 para entrenamiento de IA y 600 sistemas de CPU que consumen 630 kilovatios y cuestan más de $11 millones”
Además de eso, Huang también anunció el DGX SuperPOD de próxima generación. Impulsado por 140 sistemas DGX A100 y tecnología de red Mellanox, ofrece 700 petaflops de rendimiento de IA.
NVIDIA está ampliando su propia data center con cuatro DGX SuperPOD, agregando 2.8 exaflops de potencia informática de IA, para un total de 4.6 exaflops de capacidad total, a su supercomputadora interna SATURNV, lo que la convierte en la supercomputadora de IA más rápida del mundo.
NVIDIA DRIVE
En un intento por impulsar los vehículos autónomos, la compañía ha presentado NVIDIA DRIVE. Esto utilizará el nuevo Orin SoC con una GPU NVIDIA Ampere integrada para lograr la eficiencia energética y el rendimiento para ofrecer un sistema ADAS de 5 vatios para el parabrisas delantero, así como escalar hasta un sistema robotaxi de nivel 2,000 de 5 TOPS.
La unidad NVIDIA ecosystem ahora abarca automóviles, camiones, proveedores automotrices de primer nivel, la próxima generación mobility servicios, startups, servicios de mapeo y simulación.
Huang dijo:
“Ahora es posible que un fabricante de automóviles desarrolle una flota completa de automóviles con una arquitectura, aprovechando la software desarrollo en toda su flota.”
Créditos de la imagen principal: NVIDIA
Estén atentos a Silicon Canals por más tecnología europea news