Viernes, 13 de febrero de 2026 Vie 13/02/2026
RSS Contacto
MERCADOS
Cargando datos de mercados...
Tecnología

La gran revolución de GPT-5.3 Codex y Claude Opus 4.6 no es que sean más inteligentes. Es que pueden mejorarse a sí mismos

La gran revolución de GPT-5.3 Codex y Claude Opus 4.6 no es que sean más inteligentes. Es que pueden mejorarse a sí mismos
Artículo Completo 939 palabras
La semana pasada, OpenAI y Anthropic lanzaron simultáneamente sus nuevos modelos de IA especializados en programación: GPT-5.3 Codex y Claude Opus 4.6. Más allá de las mejoras que suponen en rendimiento o velocidad, las cuales son realmente asombrosas, ambas compañías también dejaron constancia de algo que cambia por completo las reglas del juego: los modelos de IA están participando activamente en su propio desarrollo. O dicho de otro modo: la IA se está mejorando a sí misma. Por qué importa este cambio. Las herramientas de inteligencia artificial generativa están llegando a un gran nivel de eficiencia y precisión, pasando a ser en unos pocos años de compañeras de trabajo para tareas sencillas y puntuales a poder estar involucradas en buena parte de un desarrollo. Según la documentación técnica de OpenAI, GPT-5.3 Codex "fue instrumental en su propia creación", utilizándose para depurar su entrenamiento, gestionar su despliegue y diagnosticar resultados de evaluaciones. Por otra parte cabe destacar las palabras de Dario Amodei, CEO de Anthropic, quien en su blog personal afirma que la IA escribe "gran parte del código" en su empresa y que el bucle de retroalimentación entre la generación actual y la siguiente "cobra impulso mes a mes". En Xataka Muy en silencio y con infraestructura propia, una empresa de IA europea ya come en la mesa de las grandes: Mistral En detalle. Lo que esto significa en la práctica es que cada nueva generación de IA ayuda a construir la siguiente, que será más capaz, que a su vez construirá una versión aún mejor. Los investigadores lo llaman "explosión de inteligencia", y quienes están desarrollando estos sistemas creen que el proceso ya ha comenzado. Amodei ha declarado públicamente que podríamos estar "a solo 1 o 2 años de un punto en el que la generación actual de IA construya autónomamente la siguiente". La mayoría de las personas utilizamos modelos de lenguaje gratuitos que se encuentran disponibles para todos y son medianamente capaces para determinadas tareas. Pero también están muy limitados, y no son un buen reflejo de lo que un modelo de IA puntero es capaz a día de hoy. En una breve sesión con 5.3-Codex he podido sacar esta misma conclusión, pues las herramientas de IA que usan las grandes tecnológicas en su desarrollo nada se parecen a las más comerciales que tenemos disponibles gratuitamente en cuanto a capacidades. El enfoque en código primero. La especialización inicial en programación tiene más sentido del que creemos. Y es que la idea de empresas como OpenAI, Anthropic o Google de que sus sistemas fueran excepcionales escribiendo código antes que cualquier otra cosa va ligada a que desarrollar una IA requiere enormes cantidades de código. Y si la IA puede escribir ese código, puede ayudar a construir su propia evolución. "Hacer que la IA sea excelente en programación fue la estrategia que desbloquea todo lo demás. Por eso lo hicieron primero", contaba Matt Shumer, CEO de OthersideAI, en una publicación que ha dado de qué hablar estos días en redes sociales. Entre líneas. Los nuevos modelos no solo escriben código: toman decisiones, iteran sobre su propio trabajo, prueban aplicaciones como lo haría un desarrollador humano y refinan el resultado hasta considerarlo satisfactorio. "Le digo a la IA qué quiero construir. Escribe decenas de miles de líneas de código. Luego abre la aplicación, hace clic en los botones, prueba las funciones. Si no le gusta algo, vuelve atrás y lo cambia por su cuenta. Solo cuando decide que cumple sus propios estándares vuelve a mí", contaba Shumer describiendo su experiencia con GPT-5.3 Codex. En Xataka Doblar la ropa o desmontar LEGOs ha sido siempre una tarea tediosa. La nueva IA de Xiaomi para robots le ha puesto fin Lo que cambia con la autorreferencia. Hasta ahora, cada mejora dependía de equipos humanos dedicando meses a entrenar modelos, ajustar parámetros y corregir errores. Ahora, parte de ese trabajo lo ejecuta la propia IA, acelerando los ciclos de desarrollo. Tal y como comparte Shumer y haciendo referencia a los datos de METR, una organización que mide la capacidad de estos sistemas para completar tareas complejas de forma autónoma, el tiempo que una IA puede trabajar sin intervención humana se duplica aproximadamente cada siete meses, y ya hay indicios recientes de que ese periodo podría reducirse a cuatro. Y ahora qué. Si esta tendencia se mantiene, en 2027 podríamos ver sistemas capaces de trabajar de forma autónoma durante semanas en proyectos completos. Amodei ha hablado de modelos "sustancialmente más inteligentes que casi todos los humanos en casi todas las tareas" para 2026 o 2027. No se trata de predicciones lejanas, pues la infraestructura técnica para que la IA contribuya a su propia mejora ya está operativa. Y estas capacidades son las que realmente están poniendo patas arriba a la industria tecnológica. Imagen de portada | OpenAI y Anthropic En Xataka | Tenemos un problema con la IA. Quienes se mostraban más entusiastas al principio empiezan a estar cansados de ella - La noticia La gran revolución de GPT-5.3 Codex y Claude Opus 4.6 no es que sean más inteligentes. Es que pueden mejorarse a sí mismos fue publicada originalmente en Xataka por Antonio Vallejo .
La gran revolución de GPT-5.3 Codex y Claude Opus 4.6 no es que sean más inteligentes. Es que pueden mejorarse a sí mismos

Estamos entrando en ese punto en el que la IA puede mejorarse a sí misma

1 comentarioFacebookTwitterFlipboardE-mail 2026-02-13T10:00:53Z

Antonio Vallejo

Editor

Antonio Vallejo

Editor Linkedintwitter380 publicaciones de Antonio Vallejo

La semana pasada, OpenAI y Anthropic lanzaron simultáneamente sus nuevos modelos de IA especializados en programación: GPT-5.3 Codex y Claude Opus 4.6. Más allá de las mejoras que suponen en rendimiento o velocidad, las cuales son realmente asombrosas, ambas compañías también dejaron constancia de algo que cambia por completo las reglas del juego: los modelos de IA están participando activamente en su propio desarrollo. O dicho de otro modo: la IA se está mejorando a sí misma.

Por qué importa este cambio. Las herramientas de inteligencia artificial generativa están llegando a un gran nivel de eficiencia y precisión, pasando a ser en unos pocos años de compañeras de trabajo para tareas sencillas y puntuales a poder estar involucradas en buena parte de un desarrollo. Según la documentación técnica de OpenAI, GPT-5.3 Codex "fue instrumental en su propia creación", utilizándose para depurar su entrenamiento, gestionar su despliegue y diagnosticar resultados de evaluaciones.

Por otra parte cabe destacar las palabras de Dario Amodei, CEO de Anthropic, quien en su blog personal afirma que la IA escribe "gran parte del código" en su empresa y que el bucle de retroalimentación entre la generación actual y la siguiente "cobra impulso mes a mes".

En XatakaMuy en silencio y con infraestructura propia, una empresa de IA europea ya come en la mesa de las grandes: Mistral

En detalle. Lo que esto significa en la práctica es que cada nueva generación de IA ayuda a construir la siguiente, que será más capaz, que a su vez construirá una versión aún mejor. Los investigadores lo llaman "explosión de inteligencia", y quienes están desarrollando estos sistemas creen que el proceso ya ha comenzado. Amodei ha declarado públicamente que podríamos estar "a solo 1 o 2 años de un punto en el que la generación actual de IA construya autónomamente la siguiente".

La mayoría de las personas utilizamos modelos de lenguaje gratuitos que se encuentran disponibles para todos y son medianamente capaces para determinadas tareas. Pero también están muy limitados, y no son un buen reflejo de lo que un modelo de IA puntero es capaz a día de hoy. En una breve sesión con 5.3-Codex he podido sacar esta misma conclusión, pues las herramientas de IA que usan las grandes tecnológicas en su desarrollo nada se parecen a las más comerciales que tenemos disponibles gratuitamente en cuanto a capacidades.

El enfoque en código primero. La especialización inicial en programación tiene más sentido del que creemos. Y es que la idea de empresas como OpenAI, Anthropic o Google de que sus sistemas fueran excepcionales escribiendo código antes que cualquier otra cosa va ligada a que desarrollar una IA requiere enormes cantidades de código. Y si la IA puede escribir ese código, puede ayudar a construir su propia evolución. "Hacer que la IA sea excelente en programación fue la estrategia que desbloquea todo lo demás. Por eso lo hicieron primero", contaba Matt Shumer, CEO de OthersideAI, en una publicación que ha dado de qué hablar estos días en redes sociales.

Entre líneas. Los nuevos modelos no solo escriben código: toman decisiones, iteran sobre su propio trabajo, prueban aplicaciones como lo haría un desarrollador humano y refinan el resultado hasta considerarlo satisfactorio. "Le digo a la IA qué quiero construir. Escribe decenas de miles de líneas de código. Luego abre la aplicación, hace clic en los botones, prueba las funciones. Si no le gusta algo, vuelve atrás y lo cambia por su cuenta. Solo cuando decide que cumple sus propios estándares vuelve a mí", contaba Shumer describiendo su experiencia con GPT-5.3 Codex.

En XatakaDoblar la ropa o desmontar LEGOs ha sido siempre una tarea tediosa. La nueva IA de Xiaomi para robots le ha puesto fin

Lo que cambia con la autorreferencia. Hasta ahora, cada mejora dependía de equipos humanos dedicando meses a entrenar modelos, ajustar parámetros y corregir errores. Ahora, parte de ese trabajo lo ejecuta la propia IA, acelerando los ciclos de desarrollo. Tal y como comparte Shumer y haciendo referencia a los datos de METR, una organización que mide la capacidad de estos sistemas para completar tareas complejas de forma autónoma, el tiempo que una IA puede trabajar sin intervención humana se duplica aproximadamente cada siete meses, y ya hay indicios recientes de que ese periodo podría reducirse a cuatro.

Y ahora qué. Si esta tendencia se mantiene, en 2027 podríamos ver sistemas capaces de trabajar de forma autónoma durante semanas en proyectos completos. Amodei ha hablado de modelos "sustancialmente más inteligentes que casi todos los humanos en casi todas las tareas" para 2026 o 2027. No se trata de predicciones lejanas, pues la infraestructura técnica para que la IA contribuya a su propia mejora ya está operativa. Y estas capacidades son las que realmente están poniendo patas arriba a la industria tecnológica.

Imagen de portada | OpenAI y Anthropic

En Xataka | Tenemos un problema con la IA. Quienes se mostraban más entusiastas al principio empiezan a estar cansados de ella

Fuente original: Leer en Xataka
Compartir