Los últimos modelos de OpenAI, Anthropic o Google son fantásticos, sin duda, pero tienen un problema: son gigantescos, así que la única forma de usarlos es utilizar los chatbots de estas compañías. Pero mientras esas empresas se centran en ese enfoque, Alibaba nos acaba de sorprender con algo fascinante.
El encanto de los modelos de IA diminutos. Este gigante tecnológico chino acaba de lanzar la familia de "Modelos Pequeños Qwen 3.5", que está compuesta por cuatro variantes de modelos abiertos con tamaños realmente reducidos. Así, tenemos un modelo "enano" de 800 millones de parámetros (0.8B), otro de 2.000 millones (2B), un tercero de 4.000 millones (4B) y el último, de 9.000 millones (9B). No hay cifras oficiales del número de parámetros de GPT 5.3, Opus 4.6 o de Gemini 3.1, pero es muy probable que todos ronden los 500B o los superen de largo.
Pequeñitos pero matones. Los dos primeros modelos están pensados para prototipado y despliegue en dispositivos muy modestos y en los que la autonomía de batería es prioritaria, porque su consumo es también muy ajustado. Mientras, Qwen3.5-4B es un modelo multimodal para agentes de IA ligeros que soporta una ventana de contexto de hasta 262.144 tokens. Este último, por ejemplo, tiene un tamaño de menos de 3 GB en su versión cuantizada de 4 bits, lo que lo hace usable incluso en móviles. Más interesante aún es el "mayor" de la familia.
Las mejores esencias... El último de estos modelos, Qwen3.5-9B, es realmente prometedor. Se trata de un modelo de razonamiento que según sus creadores supera nada menos que a gpt-oss-120B, el modelo abierto de OpenAI que es 13,5 veces más grande y que hasta ahora era un gran referente en este ámbito. Todos estos modelos son de pesos abiertos, y se pueden encontrar tanto en Hugging Face como en ModelScope en sus distintas variantes.
En Xataka
Las tecnológicas se están derrochando una fortuna en grandes modelos IA. Los más pequeños les están ganando la partida
Un nuevo enfoque. En estos modelos Alibaba ha hecho algunos cambios y hace uso de lo que llaman Arquitectura Híbrida Eficiente en la que combinan un nuevo tipo de algoritmos de atención (Gated Delta Networks) con el ya conocido Mixture-of-Experts (MoE). Este enfoque permite esquivar el problema del "muro de memoria" que afecta a los modelos pequeños.
Rendimientos prometedores. Los resultados de los benchmarks publicados por Alibaba son realmente llamativos. Tanto Qwen3.5-4B como Qwen3.5-9B dan un salto notable en eficiencia, sobre todo en pruebas multimodales —estos modelos son capaces de usar imágenes como entrada— y tareas de razonamiento. Así, en el test MMMU-Pro de razonamiento visual, Qwen3.5-9B dejó atrás a Gemini 2.5 Flash lite, y en el test de razonamiento GPQA el modelo de Alibaba 9B logró incluso dejar atrás a gpt-oss-120b.
Alibaba se supera a sí misma. Paul Couvert, divulgador de IA, mostraba su entusiasmo en X, donde explicaba que al menos según estos benchmarks Qwen3.5-4B era tan potente como Qwen3-Next-80B-A3B-Thinking, que hasta no hace mucho era considerado un portento pero que tenía un tamaño notable.
Modelos para tu portátil y tu móvil. Estos modelos son especialmente llamativos porque dan la opción de que prácticamente cualquiera los use en su portátil o en su móvil (¡o integrados en un navegador!). En todos los casos las ventajas son claras: no dependes de la nube, así que los puedes usar sin conexión, y además nuestras conversaciones no pasan por ningún servidor, con lo que "todo queda en casa" y al usar estos modelos, los chats son privados.
Solo Google parece seguir la estela. De las grandes de la IA occidentales, solo Google parece estar interesada en los modelos de pequeño tamaño. Gemma 3 270M fue una versión sorprendente lanzada en agosto de 2025. Microsoft también tiene su Phi-4 de diciembre de 2024, pero más allá de eso hay pocos ejemplos. OpenAI lanzó gpt-oss-20B y gpt-oss-120B en agosto de 2025 y demostró cierto interés por este tipo de escenarios, pero desde entonces no ha habido noticias. Hay startups como Liquid que tienen un llamativo LFM2.5 con una variante de tan solo 1.2B, pero aquí Alibaba parece imparable con esa apuesta por lo pequeño. Al menos, de momento.
En Xataka | Si la pregunta es cuál de las grandes tecnológicas está ganando la carrera de la IA, la respuesta es: ninguna
-
La noticia
Alibaba acaba de robarle la cartera a todas las Big Tech: lo ha hecho con prometedores modelos de IA de bolsillo
fue publicada originalmente en
Xataka
por
Javier Pastor
.
Alibaba acaba de robarle la cartera a todas las Big Tech: lo ha hecho con prometedores modelos de IA de bolsillo
Ejecutar modelos de IA en local realmente decentes en tu móvil está ya al alcance (casi) de cualquiera
Los últimos modelos de OpenAI, Anthropic o Google son fantásticos, sin duda, pero tienen un problema: son gigantescos, así que la única forma de usarlos es utilizar los chatbots de estas compañías. Pero mientras esas empresas se centran en ese enfoque, Alibaba nos acaba de sorprender con algo fascinante.
El encanto de los modelos de IA diminutos. Este gigante tecnológico chino acaba de lanzar la familia de "Modelos Pequeños Qwen 3.5", que está compuesta por cuatro variantes de modelos abiertos con tamaños realmente reducidos. Así, tenemos un modelo "enano" de 800 millones de parámetros (0.8B), otro de 2.000 millones (2B), un tercero de 4.000 millones (4B) y el último, de 9.000 millones (9B). No hay cifras oficiales del número de parámetros de GPT 5.3, Opus 4.6 o de Gemini 3.1, pero es muy probable que todos ronden los 500B o los superen de largo.
Pequeñitos pero matones. Los dos primeros modelos están pensados para prototipado y despliegue en dispositivos muy modestos y en los que la autonomía de batería es prioritaria, porque su consumo es también muy ajustado. Mientras, Qwen3.5-4B es un modelo multimodal para agentes de IA ligeros que soporta una ventana de contexto de hasta 262.144 tokens. Este último, por ejemplo, tiene un tamaño de menos de 3 GB en su versión cuantizada de 4 bits, lo que lo hace usable incluso en móviles. Más interesante aún es el "mayor" de la familia.
Las mejores esencias... El último de estos modelos, Qwen3.5-9B, es realmente prometedor. Se trata de un modelo de razonamiento que según sus creadores supera nada menos que a gpt-oss-120B, el modelo abierto de OpenAI que es 13,5 veces más grande y que hasta ahora era un gran referente en este ámbito. Todos estos modelos son de pesos abiertos, y se pueden encontrar tanto en Hugging Face como en ModelScope en sus distintas variantes.
Un nuevo enfoque. En estos modelos Alibaba ha hecho algunos cambios y hace uso de lo que llaman Arquitectura Híbrida Eficiente en la que combinan un nuevo tipo de algoritmos de atención (Gated Delta Networks) con el ya conocido Mixture-of-Experts (MoE). Este enfoque permite esquivar el problema del "muro de memoria" que afecta a los modelos pequeños.
Rendimientos prometedores. Los resultados de los benchmarks publicados por Alibaba son realmente llamativos. Tanto Qwen3.5-4B como Qwen3.5-9B dan un salto notable en eficiencia, sobre todo en pruebas multimodales —estos modelos son capaces de usar imágenes como entrada— y tareas de razonamiento. Así, en el test MMMU-Pro de razonamiento visual, Qwen3.5-9B dejó atrás a Gemini 2.5 Flash lite, y en el test de razonamiento GPQA el modelo de Alibaba 9B logró incluso dejar atrás a gpt-oss-120b.
Alibaba se supera a sí misma. Paul Couvert, divulgador de IA, mostraba su entusiasmo en X, donde explicaba que al menos según estos benchmarks Qwen3.5-4B era tan potente como Qwen3-Next-80B-A3B-Thinking, que hasta no hace mucho era considerado un portento pero que tenía un tamaño notable.
Modelos para tu portátil y tu móvil. Estos modelos son especialmente llamativos porque dan la opción de que prácticamente cualquiera los use en su portátil o en su móvil (¡o integrados en un navegador!). En todos los casos las ventajas son claras: no dependes de la nube, así que los puedes usar sin conexión, y además nuestras conversaciones no pasan por ningún servidor, con lo que "todo queda en casa" y al usar estos modelos, los chats son privados.
Solo Google parece seguir la estela. De las grandes de la IA occidentales, solo Google parece estar interesada en los modelos de pequeño tamaño. Gemma 3 270M fue una versión sorprendente lanzada en agosto de 2025. Microsoft también tiene su Phi-4 de diciembre de 2024, pero más allá de eso hay pocos ejemplos. OpenAI lanzó gpt-oss-20B y gpt-oss-120B en agosto de 2025 y demostró cierto interés por este tipo de escenarios, pero desde entonces no ha habido noticias. Hay startups como Liquid que tienen un llamativo LFM2.5 con una variante de tan solo 1.2B, pero aquí Alibaba parece imparable con esa apuesta por lo pequeño. Al menos, de momento.