
En su conferencia GTC 2025, Nvidia ha desvelado su hoja de ruta para dominar la próxima década de la IA: los superchips Blackwell Ultra GB300 (2025), Vera Rubin (2026) y Rubin Ultra (2027), junto con el anuncio de Feynman para 2028. Una apuesta audaz que busca mantener su reinado en un mercado donde ya genera $2,300 por segundo.
Blackwell Ultra GB300: Más memoria, misma revolución
- Lanzamiento: Segundo semestre de 2025.
- Novedades:
- 288 GB HBM3e (vs. 192 GB de Blackwell).
- Mismo rendimiento (20 petaflops FP4) pero optimizado para razonamiento de IA:
- Ejecuta modelos como DeepSeek-R1 671B en 10 segundos (vs. 1.5 minutos del H100).
- Procesa 1,000 tokens/segundo (10x más que chips de 2022).
- Opciones:
- DGX Station: Estación de trabajo con 1 chip GB300, 784 GB memoria unificada y 800 Gbps de red (vendida por Dell, HP, etc.).
- NVL72: Rack con 1.1 exaflops FP4, 20 TB HBM y 130 TB/s de ancho de banda.
Vera Rubin (2026) y Rubin Ultra (2027): El salto cuántico
- Vera Rubin:
- 50 petaflops FP4 (2.5x Blackwell Ultra).
- Rack NVL576: 15 exaflops FP4 (14x Blackwell Ultra).
- Rubin Ultra:
- Chip dual con 100 petaflops FP4 y 1 TB de memoria.
- Enfocado a entrenamiento masivo (5 exaflops FP8).
El contexto: Por qué Nvidia apuesta por más potencia
- Demanda explosiva: Jensen Huang afirma que la industria necesita «100 veces más capacidad que lo previsto en 2024».
- Datos clave:
- Ya se han vendido $11,000 millones en chips Blackwell (solo 4 clientes compraron 1.8 millones de unidades en 2025).
- El hardware de red de Nvidia ahora genera más ingresos que sus GPU gaming.
Feynman (2028): El próximo horizonte
Nvidia ya mira más allá: su arquitectura post-Rubin, nombrada en honor al físico Richard Feynman, promete seguir escalando la curva de rendimiento.
¿Por qué importa?
Mientras competidores como AMD o startups de chips alternativos intentan desafiar su dominio, Nvidia responde con una cadencia de lanzamientos anuales y saltos generacionales agresivos. Su apuesta: la IA no se estancará, sino que exigirá más potencia, más memoria y menos latencia.