NVIDIA lleva un par de años siendo la argamasa de la industria de la inteligencia artificial. Hay una imagen que lo explica mejor que mil palabras:
Sus chips H200 alimentan los centros de datos que se usan para entrenar la inteligencia artificial y son objeto de deseo hasta de algunas de las Big Tech chinas, pero ya están preparando una nueva generación llamada Rubin. Y si hay alguien que tiene claro que esos futuros chips deberían ser los ladrillos de sus nuevos centros de datos es Mark Zuckerberg.
En Xataka
Una empresa japonesa de retretes lleva años fabricando piezas clave en la industria de los chips. Y ahora va a ser clave en la IA
¿El motivo? Son los necesarios para conseguir la “superinteligencia personal”. Y esa creencia es la que ha inspirado un acuerdo milmillonario. Sí, otro más.
El futuro de NVIDIA es prometedor para Meta
No hay una cifra concreta, pero en The Wall Street Journal se habla de un acuerdo valorado en “decenas de miles de millones de dólares”. Meta está persiguiendo un tipo de inteligencia artificial enfocada en el uso en el día a día, más allá de con un chatbot. Confían tanto en ello que han montado el Equipo A de la IA y, para dejar de tener promesas y conseguir productos, van a hacer un all-in en la futura tecnología de NVIDIA.
La empresa de Jensen Huang cuenta con GPU como las H200 con arquitectura Blackwell, pero ya están ultimando el desarrollo de algo más:
Su nueva arquitectura RubinY la CPU Grace.
Grace es especialmente interesante porque supone el primer despliegue masivo de CPU de NVIDIA basadas en arquitectura ARM. Pero no es sólo la GPU y la CPU: NVIDIA va a proporcionar todo su ecosistema de hardware y software a Meta. “La plataforma completa de NVIDIA”, como lo ha denominado Huang.
Y hay algo curioso en todo este asunto que ejemplifica a la perfección lo que está ocurriendo en la carrera armamentística de la inteligencia artificial: las empresas están comprando hardware que no existe para alimentar centros de datos que sólo existen sobre el papel.
NVIDIA aún no está fabricando en masa sus GPU Rubin porque depende de que Samsung provea las memorias HBM4 que ahora están empezando a fabricar en masa. Uno de los mandamases de SMIC, la gran esperanza china de los semiconductores, describió el proceso como “crear carreteras enormes cuando aún no hay coches que circulen por ellas”.
También apuntó que “nadie ha pensado realmente en qué harán exactamente esos centros de datos, pero a las empresas les encantaría construir la capacidad total de los próximos 10 años en apenas uno o dos años”.
En Xataka
Todas las Big Tech están apostando el dinero que tienen y el que no tienen al futuro de la IA. Todas menos una: Apple
Como decíamos, no hay cifras concretas de este acuerdo, pero Meta ha soltado la billetera. En 2025 invirtieron 72.000 millones en la IA y las previsiones eran de 115.000 millones para 2026. Decimos “eran” porque han rediseñado el plan para aumentar hasta los 135.000 millones para expandir los centros de datos e intentar cumplir los objetivos de Superintelligence Labs.
En Xataka siempre intentamos ofrecer contexto cuando hablamos de ciertas cantidades, pero es tan exagerado que no se me ocurre cómo contextualizarlo. Bueno, sí: 135.000 millones sólo Meta, es menos que los 650.000 millones que se gastarán este año entre Amazon, Google y Microsoft. Ahí está el contexto.
Imágenes | NVIDIA, Mark Zuckerberg
En Xataka | Western Digital ha vendido toda su capacidad de discos duros para 2026: la IA está devorando el almacenamiento físico
-
La noticia
Meta está comprando a NVIDIA GPUs que todavía no existen: es el movimiento más sintomático del boom de la IA
fue publicada originalmente en
Xataka
por
Alejandro Alcolea
.
Meta está comprando a NVIDIA GPUs que todavía no existen: es el movimiento más sintomático del boom de la IA
Meta y NVIDIA acaban de firmar un acuerdo milmillonario y la primera comprará toda la infraestructura de la segunda para sus nuevos centros de datos
Ni una cosa ni otra existe aún, pero eso da igual en la carrera armamentística de la IA
Sus chips H200 alimentan los centros de datos que se usan para entrenar la inteligencia artificial y son objeto de deseo hasta de algunas de las Big Tech chinas, pero ya están preparando una nueva generación llamada Rubin. Y si hay alguien que tiene claro que esos futuros chips deberían ser los ladrillos de sus nuevos centros de datos es Mark Zuckerberg.
¿El motivo? Son los necesarios para conseguir la “superinteligencia personal”. Y esa creencia es la que ha inspirado un acuerdo milmillonario. Sí, otro más.
La empresa de Jensen Huang cuenta con GPU como las H200 con arquitectura Blackwell, pero ya están ultimando el desarrollo de algo más:
Su nueva arquitectura Rubin
Y la CPU Grace.
Grace es especialmente interesante porque supone el primer despliegue masivo de CPU de NVIDIA basadas en arquitectura ARM. Pero no es sólo la GPU y la CPU: NVIDIA va a proporcionar todo su ecosistema de hardware y software a Meta. “La plataforma completa de NVIDIA”, como lo ha denominado Huang.
Y hay algo curioso en todo este asunto que ejemplifica a la perfección lo que está ocurriendo en la carrera armamentística de la inteligencia artificial: las empresas están comprando hardware que no existe para alimentar centros de datos que sólo existen sobre el papel.
NVIDIA aún no está fabricando en masa sus GPU Rubin porque depende de que Samsung provea las memorias HBM4 que ahora están empezando a fabricar en masa. Uno de los mandamases de SMIC, la gran esperanza china de los semiconductores, describió el proceso como “crear carreteras enormes cuando aún no hay coches que circulen por ellas”.
También apuntó que “nadie ha pensado realmente en qué harán exactamente esos centros de datos, pero a las empresas les encantaría construir la capacidad total de los próximos 10 años en apenas uno o dos años”.
En Xataka siempre intentamos ofrecer contexto cuando hablamos de ciertas cantidades, pero es tan exagerado que no se me ocurre cómo contextualizarlo. Bueno, sí: 135.000 millones sólo Meta, es menos que los 650.000 millones que se gastarán este año entre Amazon, Google y Microsoft. Ahí está el contexto.