Alejandro Alcolea
Alejandro Alcolea
NVIDIA lleva un par de años siendo la argamasa de la industria de la inteligencia artificial. Hay una imagen que lo explica mejor que mil palabras:
Sus chips H200 alimentan los centros de datos que se usan para entrenar la inteligencia artificial y son objeto de deseo hasta de algunas de las Big Tech chinas, pero ya están preparando una nueva generación llamada Rubin. Y si hay alguien que tiene claro que esos futuros chips deberían ser los ladrillos de sus nuevos centros de datos es Mark Zuckerberg.
¿El motivo? Son los necesarios para conseguir la “superinteligencia personal”. Y esa creencia es la que ha inspirado un acuerdo milmillonario. Sí, otro más.
No hay una cifra concreta, pero en The Wall Street Journal se habla de un acuerdo valorado en “decenas de miles de millones de dólares”. Meta está persiguiendo un tipo de inteligencia artificial enfocada en el uso en el día a día, más allá de con un chatbot. Confían tanto en ello que han montado el Equipo A de la IA y, para dejar de tener promesas y conseguir productos, van a hacer un all-in en la futura tecnología de NVIDIA.
La empresa de Jensen Huang cuenta con GPU como las H200 con arquitectura Blackwell, pero ya están ultimando el desarrollo de algo más:
Grace es especialmente interesante porque supone el primer despliegue masivo de CPU de NVIDIA basadas en arquitectura ARM. Pero no es sólo la GPU y la CPU: NVIDIA va a proporcionar todo su ecosistema de hardware y software a Meta. “La plataforma completa de NVIDIA”, como lo ha denominado Huang.
Y hay algo curioso en todo este asunto que ejemplifica a la perfección lo que está ocurriendo en la carrera armamentística de la inteligencia artificial: las empresas están comprando hardware que no existe para alimentar centros de datos que sólo existen sobre el papel.
NVIDIA aún no está fabricando en masa sus GPU Rubin porque depende de que Samsung provea las memorias HBM4 que ahora están empezando a fabricar en masa. Uno de los mandamases de SMIC, la gran esperanza china de los semiconductores, describió el proceso como “crear carreteras enormes cuando aún no hay coches que circulen por ellas”.
También apuntó que “nadie ha pensado realmente en qué harán exactamente esos centros de datos, pero a las empresas les encantaría construir la capacidad total de los próximos 10 años en apenas uno o dos años”.
Como decíamos, no hay cifras concretas de este acuerdo, pero Meta ha soltado la billetera. En 2025 invirtieron 72.000 millones en la IA y las previsiones eran de 115.000 millones para 2026. Decimos “eran” porque han rediseñado el plan para aumentar hasta los 135.000 millones para expandir los centros de datos e intentar cumplir los objetivos de Superintelligence Labs.
En Xataka siempre intentamos ofrecer contexto cuando hablamos de ciertas cantidades, pero es tan exagerado que no se me ocurre cómo contextualizarlo. Bueno, sí: 135.000 millones sólo Meta, es menos que los 650.000 millones que se gastarán este año entre Amazon, Google y Microsoft. Ahí está el contexto.
Imágenes | NVIDIA, Mark Zuckerberg
En Xataka | Western Digital ha vendido toda su capacidad de discos duros para 2026: la IA está devorando el almacenamiento físico
Los mejores comentarios:
Ver 2 comentarios
En Xataka hablamos de…
Ver más temas
Webedia
Tecnología
Videojuegos
Entretenimiento
Gastronomía
Motor
Estilo de vida
Economía
Ediciones Internacionales
Destacamos
Ver más temas
Más sitios que te gustarán
Reciente
Ver más artículos
Xataka TV
Ver más vídeos