Nvidia ha presentado su nueva plataforma Nvidia Blackwell, que está formada por el nuevo chip «más potente del mundo» GPU B200, con hasta 208.000 millones de transistores, y por el superchip GB200 Grace Blackwell, que combina dos GPU B200 con una CPU Nvidia Grace, para alcanzar un rendimiento hasta 30 veces más potente para cargas de trabajo de inferencia de modelos grandes de lenguaje (LLM).
La tecnológica ha anunciado sus novedades en el marco de su conferencia de desarrolladores de IA Nvidia GTC, que ha tenido lugar este lunes, donde ha subrayado su intención de impulsar "una nueva era de informática" de la mano de sus nuevos chips, diseñados para impulsar la IA generativa en tiempo real utilizando modelos de lenguaje de gran tamaño con «billones de parámetros», a un coste y consumo de energía «hasta 25 veces menor».
En este sentido, la compañía ha explicado que la arquitectura de GPU Blackwell se ha desarrollado con seis tecnologías enfocadas en la computación acelerada. De esta forma, sus nuevos chips desbloquearán avances en sectores como el procesamiento de datos, la simulación de ingeniería, la automatización del diseño electrónico, la computación cuántica y la IA generativa.
Como ha detallado Nvidia en un comunicado en su web, una de las tecnologías de Blackwell es el chip «más potente del mundo», GPU B200, que está equipado con 208.000 millones de transistores, frente a los 80.000 millones de transistores de su antecesor, el chip H100. Asimismo, alcanza los 20 petaFLOPS de rendimiento de IA y tiene un ancho de banda de 8TB por segundo.
También el "superchip" Nvidia GB200 Grace Blackwell, que conecta dos GPU B200 con una CPU Nvidia Grace a través de una interconexión de chip a chip NVLink, con la que los chips pueden comunicarse entre sí a velocidades de hasta 10 terabytes por segundo «en una única GPU unificada». Este «superchip» está fabricado con arquitectura Blackwell y mediante un proceso de 4 nanómetros TSMC personalizado.
Este «superchip» es un «componente clave» del nuevo sistema Nvidia GB200 NVL72, que permite obtener 30 veces más rendimiento para cargas de trabajo de inferencia de LLM en comparación con la capacidad que proporcionaría la GPU H100. Asimismo, es más eficiente, ya que reduce el consumo de energía y, por tanto, el coste.
Concretamente, Nvidia GB200 NVL72 es un sistema de múltiples nodos, refrigerado por líquido a escala de rack diseñado para llevar a cabo las cargas de trabajo que requieran un uso intensivo de computación. Para ello, combina 36 superchips GB200 Grace Blackwell, que incluyen 72 GPU Blackwell B200 y 36 CPU Grace, interconectadas por NVLink de quinta generación.
Por otra parte, la compañía también ha compartido que, para obtener un mayor rendimiento de IA, los sistemas con tecnología GB200 se pueden conectar con sus nuevas plataformas Nvidia Quantum-X800 InfiniBand y Spectrum-X800 Ethernet, con las que podrán ofrecer redes avanzadas, con las que podrán alcanzar velocidades de hasta 800 Gb por segundo.
Tal y como ha recordado el fundador y director ejecutivo de Nvidia, Jesen Huang, Nvidia lleva trabajando «tres décadas» para desarrollar nuevas tecnologías relacionadas con la computación acelerada, con el objetivo de «permitir avances transformadores como el aprendizaje profundo y la IA». Ahora, con la nueva plataforma Blackwell, han conseguido desarrollar «el motor que impulsará la nueva revolución industrial».
Por su parte, Nvidia ha confirmado que diversas organizaciones del sector adoptarán la arquitectura Blackwell, como son Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla y xAI.
El director ejecutivo de Alphabet y Google, Sundar Pichai, ha determinado que continuarán invirtiendo en infraestructura para potenciar sus productos y servicios, y por ello, ha asegurado que esperan "llevar las capacidades innovadoras de la GPU Blackwell a clientes y equipos de la nube en Google, incluido Google DeepMind, para acelerar descubrimientos futuros".
De la misma forma se ha pronunciado el director ejecutivo de Meta, Mark Zuckerberg, quien ha adelantado que esperan utilizar Blackwell para "ayudar a entrenar los modelos Llama de código abierto y construir la próxima generación de Meta AI y productos de consumo".