Esta semana, un analista llamado Tomasz Tunguz publicó en X dos gráficos reveladores. En ellos se observa la evolución de lo que le cuesta a las startups de IA poder acceder a cómputo en la nube, y hay malas noticias. El pecio del alquiler de las GPUs NVIDIA B200 con arquitectura Blackwell ha pasado de 2,31 dólares por hora a principios de marzo a 4,95 dólares por hora esta semana. Es un incremento del 114% en tan solo seis semanas y tiene una causa clara: la llegada de nuevos modelos de Anthropic y OpenAI.
Lo que los gráficos muestran con claridad. Esos gráficos se centran en el índice de precios de Ornn, un mercado de compraventa de cómputo en la nube. El primero de ellos cubre el precio de alquilar los chips B200 desde finales de 2025 hasta hoy, y hay líneas verticales mostrando cada lanzamiento de los últimos modelos de OpenAI y Anthropic. La correlación es casi perfecta: GPT-5 Codex, Claude 4.5, GPT-5.3 Codex, Claude Opus 4.7 y GPT-5.5 coinciden con un salto en los índices de precios. Cada vez que estas empresas anuncian una nueva versión de sus modelos frontera, la demanda se dispara, y también lo hace el coste.
Si quieres lo mejor, paga (mucho más). El segundo gráfico muestra la diferencia de precios entre alquilar la generación anterior de chips, H200 con arquitectura Hopper, y los nuevos B200. La media histórica de ese "spread" es de 1,06 dólares, pero ahora se sitúa en 2,09 dólares, prácticamente el doble. Eso significa que los compradores —startups y empresas de IA— están pagando una prima récord por la memoria adicional y la superior capacidad de cómputo de los chips con arquitectura Blackwell. Acceder a lo último de lo último ya era caro. Ahora lo es aún más. Eso convierte además a las H200 en una opción de segunda clase para los modelos más exigentes de 2026.
Acción y reacción. Hay una lógica aplastante aquí. Cuando OpenAI o Anthropic publican un nuevo modelo, se produce una explosión en la inferencia. Los desarrolladores y empresas quieren probarlos cuanto antes e integrar esos modelos en sus productos (o competir con ellos). Para eso necesitan cómputo rápidamente, y se provoca una demanda simultánea que desequilibra el inventario disponible en el mercado del alquiler de chips de IA por horas. El problema es que la oferta de B200 no crece al mismo ritmo. Algunas empresas han querido anticiparse, y tenemos el ejemplo perfecto en Google. Ha compado todas las B200 que ha podido, y eso ha hecho que estas GPUs estén rondando ahora los 500.000 dólares en el mercado secundario según el analista Jack Minor.
La ironía de la eficiencia. Lo curioso es que cuanto más eficientes son estos chips —y los B200 lo son—, más empresas quieren alquilarlos a la vez para aprovechar esas ventajas de eficiencia que deberían suponer un ahorro de costes. Lo que ocurre en realidad es que la escasez de esos chips avanzados anula cualquier ahorro teórico.
En Xataka
Mistral no genera hype, es una IA discreta, no dispara las acciones de ninguna empresa, pero ya gana más dinero que Grok
Contratos a largo plazo. Las startups y empresas que piensan a corto plazo salen especialmente perjudicadas en este ámbito, porque se enfrentan a saltos de precio cada vez más difíciles de asumir. Las empresas que firmaron contratos de alquiler de cómputo al precio de entonces pueden operar ahora a menos de la mitad del coste de sus competidores. Pensar a medio o largo plazo parece razonable, aunque una vez más quienes ganan son los hiperescaladores y aquellas empresas que han logrado hacerse con muchas B200. Y quien gana aún más es por supuesto NVIDIA, que no da abasto.
Pocas alternativas. En otros mercados como el de la energía o los metales suele haber margen de maniobra, apunta Tunguz, pero no sucede lo mismo de momento en el segmento de la IA. En el mercado del petróleo, por ejemplo, si el precio sube un 114% en seis semanas, las empresas pueden comprar futuros, opciones o contratos de suministro a precio fijo para proteger sus márgenes. En el alquiler de cómputo en la nube esas opciones son mucho más limitadas. Y el resultado es un segmento mucho más volátil.
Esto irá a más. Estamos probablemente ante un pico de demanda al que le seguirá una corrección: se espera que la nueva hornada de chips B200 que lleguen en la segunda mitad de 2026 provoquen una bajada de los precios actuales. Sin embargo esos 4,95 dólares son ahora el nuevo suelo, no un pico, porque la demanda de cómputo de IA seguirá creciendo más rápido que la capacidad de producción de TSMC. A falta de que la oferta de chips de IA crezca de forma significativa —y desde luego hay movimientos que tratan de lograrlo, como los de Google con sus TPU, Amazon con sus Trainium o Huawei con sus Ascend—, el problema seguirá ahí.
En Xataka | Europa se está tomando tan en serio su independencia tecnológica que apunta hacia el objetivo más ambicioso: NVIDIA
-
La noticia
Hay una cosa llamada "índice de precios de Ornn", está fuera de control y son malas noticias para todo el mundo
fue publicada originalmente en
Xataka
por
Javier Pastor
.
Hay una cosa llamada "índice de precios de Ornn", está fuera de control y son malas noticias para todo el mundo
El índice de precios de Ornn revela una correlación salvaje: el despliegue de GPT-5.5 y Claude Opus 4.7 ha disparado el coste de computación un 114% en solo seis semanas
Esta semana, un analista llamado Tomasz Tunguz publicó en X dos gráficos reveladores. En ellos se observa la evolución de lo que le cuesta a las startups de IA poder acceder a cómputo en la nube, y hay malas noticias. El pecio del alquiler de las GPUs NVIDIA B200 con arquitectura Blackwell ha pasado de 2,31 dólares por hora a principios de marzo a 4,95 dólares por hora esta semana. Es un incremento del 114% en tan solo seis semanas y tiene una causa clara: la llegada de nuevos modelos de Anthropic y OpenAI.
Lo que los gráficos muestran con claridad. Esos gráficos se centran en el índice de precios de Ornn, un mercado de compraventa de cómputo en la nube. El primero de ellos cubre el precio de alquilar los chips B200 desde finales de 2025 hasta hoy, y hay líneas verticales mostrando cada lanzamiento de los últimos modelos de OpenAI y Anthropic. La correlación es casi perfecta: GPT-5 Codex, Claude 4.5, GPT-5.3 Codex, Claude Opus 4.7 y GPT-5.5 coinciden con un salto en los índices de precios. Cada vez que estas empresas anuncian una nueva versión de sus modelos frontera, la demanda se dispara, y también lo hace el coste.
Si quieres lo mejor, paga (mucho más). El segundo gráfico muestra la diferencia de precios entre alquilar la generación anterior de chips, H200 con arquitectura Hopper, y los nuevos B200. La media histórica de ese "spread" es de 1,06 dólares, pero ahora se sitúa en 2,09 dólares, prácticamente el doble. Eso significa que los compradores —startups y empresas de IA— están pagando una prima récord por la memoria adicional y la superior capacidad de cómputo de los chips con arquitectura Blackwell. Acceder a lo último de lo último ya era caro. Ahora lo es aún más. Eso convierte además a las H200 en una opción de segunda clase para los modelos más exigentes de 2026.
Acción y reacción. Hay una lógica aplastante aquí. Cuando OpenAI o Anthropic publican un nuevo modelo, se produce una explosión en la inferencia. Los desarrolladores y empresas quieren probarlos cuanto antes e integrar esos modelos en sus productos (o competir con ellos). Para eso necesitan cómputo rápidamente, y se provoca una demanda simultánea que desequilibra el inventario disponible en el mercado del alquiler de chips de IA por horas. El problema es que la oferta de B200 no crece al mismo ritmo. Algunas empresas han querido anticiparse, y tenemos el ejemplo perfecto en Google. Ha compado todas las B200 que ha podido, y eso ha hecho que estas GPUs estén rondando ahora los 500.000 dólares en el mercado secundario según el analista Jack Minor.
La ironía de la eficiencia. Lo curioso es que cuanto más eficientes son estos chips —y los B200 lo son—, más empresas quieren alquilarlos a la vez para aprovechar esas ventajas de eficiencia que deberían suponer un ahorro de costes. Lo que ocurre en realidad es que la escasez de esos chips avanzados anula cualquier ahorro teórico.
Contratos a largo plazo. Las startups y empresas que piensan a corto plazo salen especialmente perjudicadas en este ámbito, porque se enfrentan a saltos de precio cada vez más difíciles de asumir. Las empresas que firmaron contratos de alquiler de cómputo al precio de entonces pueden operar ahora a menos de la mitad del coste de sus competidores. Pensar a medio o largo plazo parece razonable, aunque una vez más quienes ganan son los hiperescaladores y aquellas empresas que han logrado hacerse con muchas B200. Y quien gana aún más es por supuesto NVIDIA, que no da abasto.
Pocas alternativas. En otros mercados como el de la energía o los metales suele haber margen de maniobra, apunta Tunguz, pero no sucede lo mismo de momento en el segmento de la IA. En el mercado del petróleo, por ejemplo, si el precio sube un 114% en seis semanas, las empresas pueden comprar futuros, opciones o contratos de suministro a precio fijo para proteger sus márgenes. En el alquiler de cómputo en la nube esas opciones son mucho más limitadas. Y el resultado es un segmento mucho más volátil.
Esto irá a más. Estamos probablemente ante un pico de demanda al que le seguirá una corrección: se espera que la nueva hornada de chips B200 que lleguen en la segunda mitad de 2026 provoquen una bajada de los precios actuales. Sin embargo esos 4,95 dólares son ahora el nuevo suelo, no un pico, porque la demanda de cómputo de IA seguirá creciendo más rápido que la capacidad de producción de TSMC. A falta de que la oferta de chips de IA crezca de forma significativa —y desde luego hay movimientos que tratan de lograrlo, como los de Google con sus TPU, Amazon con sus Trainium o Huawei con sus Ascend—, el problema seguirá ahí.