Skip to content
Volver al Blog
Model Releases

Qwen 3: El Nuevo Modelo Open-Source de 235B Parámetros de Alibaba Cloud

Alibaba Cloud lanza Qwen 3 con arquitectura MoE avanzada, soporte multilingüe en 119 idiomas y licencia Apache 2.0 para desarrolladores.

29 de abril de 2025
Model ReleaseQwen 3
Qwen 3 - official image

Introducción: La Nueva Era de Qwen

Alibaba Cloud ha confirmado oficialmente el lanzamiento de Qwen 3 el 29 de abril de 2025, marcando un hito significativo en el ecosistema de modelos de lenguaje abiertos. Este modelo representa una evolución masiva en la eficiencia y la capacidad de razonamiento, diseñado específicamente para competir con los modelos propietarios más costosos. La decisión de mantenerlo bajo licencia Apache 2.0 asegura que las empresas y desarrolladores puedan utilizarlo sin restricciones comerciales, fomentando la innovación abierta en la industria de la IA.

En un mercado saturado de modelos cerrados, Qwen 3 se destaca por su arquitectura de Mezcla de Expertos (MoE) que permite activar solo los parámetros necesarios para cada tarea, reduciendo drásticamente el costo de inferencia sin sacrificar inteligencia. Para los ingenieros de IA, esto significa mayor control sobre el despliegue en servidores locales o en la nube, con una flexibilidad que los modelos propietarios no pueden igualar.

  • Fecha de lanzamiento: 29 de abril de 2025
  • Licencia: Apache 2.0 (Comercialmente libre)
  • Proveedor: Alibaba Cloud
  • Enfoque: Rendimiento de alto nivel y eficiencia

Características Clave y Arquitectura

La arquitectura subyacente de Qwen 3 se basa en un diseño híbrido de Mezcla de Expertos (MoE) que combina 235 mil millones de parámetros totales, con 22 mil millones de parámetros activos por token. Esta configuración híbrida permite un rendimiento de punta mientras mantiene una huella computacional manejable. El modelo ofrece variantes escalables que van desde versiones compactas de 0.6B hasta el modelo masivo de 235B, cubriendo desde dispositivos de borde hasta servidores de gran escala.

Además de la capacidad de procesamiento masivo, Qwen 3 soporta un contexto ventana expandido y capacidades multimodales integradas. El soporte multilingüe abarca 119 idiomas, lo que lo hace ideal para aplicaciones globales. La capacidad de razonamiento mejorada se integra directamente en la arquitectura, permitiendo al modelo 'pensar' antes de generar respuestas complejas, una característica crucial para tareas de programación y análisis lógico.

  • Parámetros Totales: 235B (MoE)
  • Parámetros Activos: 22B
  • Variantes: 0.6B a 235B
  • Idiomas Soportados: 119
  • Capacidad: Multimodal y Razonamiento Híbrido

Rendimiento y Benchmarks

En pruebas de benchmarking, Qwen 3 demuestra un rendimiento superior en comparación con versiones anteriores y competidores directos. En MMLU, el modelo alcanza puntuaciones que superan a los modelos de contexto estándar, mientras que en HumanEval y SWE-bench, su capacidad de generación de código es excepcional. Los resultados indican que la arquitectura MoE de 22B activos logra una eficiencia de token que reduce el tiempo de inferencia en un 40% comparado con modelos densos de tamaño similar.

La capacidad de razonamiento híbrido permite al modelo desglosar problemas complejos en pasos lógicos antes de responder. Esto se traduce en una precisión más alta en tareas matemáticas y científicas. Los desarrolladores reportan que la calidad de las respuestas en tareas de agentic AI es notablemente mejor, permitiendo la creación de agentes autónomos más robustos que pueden planificar tareas multi-etapa sin perder el hilo lógico.

  • MMLU Score: Superior a modelos densos estándar
  • HumanEval: Rendimiento de clase líder
  • SWE-bench: Alta precisión en código
  • Inferencia: 40% más rápida que modelos densos
  • Razonamiento: Pasos lógicos explícitos

Estructura de Precios y API

Aunque Qwen 3 es open-source, Alibaba Cloud ofrece una API gestionada para aquellos que prefieren no auto-deployar el modelo. La estructura de precios es competitiva, diseñada para escalar con el uso. Para desarrolladores que requieren integración rápida, la API permite acceso inmediato sin la complejidad de configurar entornos de GPU locales. Además, existe un tier gratuito limitado para pruebas de concepto, ideal para validar arquitecturas antes de comprometer recursos.

El costo por millón de tokens se mantiene bajo gracias a la eficiencia de la arquitectura MoE. Esto permite que las empresas procesen grandes volúmenes de datos sin un impacto financiero desproporcionado. La transparencia en la facturación y la opción de auto-hospedaje bajo licencia Apache 2.0 ofrecen a las empresas una alternativa viable frente a los costos crecientes de los servicios de IA cerrados.

  • API: Acceso directo vía Alibaba Cloud
  • Tier Gratuito: Disponible para pruebas
  • Costo API: Competitivo por volumen
  • Auto-hospedaje: Sin costo de licencia

Tabla de Comparación

Para contextualizar la posición de Qwen 3 en el mercado actual, es fundamental compararlo con otros modelos de vanguardia. A continuación, se presenta una tabla detallada que contrasta Qwen 3 con Llama 3.1 y Mixtral 8x22B, enfocándose en métricas críticas como el contexto, costo y fortalezas específicas.

  • Análisis de costo-beneficio
  • Comparación de ventana de contexto
  • Evaluación de capacidades de código

Casos de Uso Recomendados

Qwen 3 está diseñado para una amplia gama de aplicaciones, desde asistentes de chat avanzados hasta sistemas de agentic AI complejos. En el ámbito del desarrollo de software, su capacidad para generar y depurar código en múltiples lenguajes lo convierte en una herramienta esencial para equipos de ingeniería. La licencia Apache 2.0 facilita su integración en repositorios privados y productos comerciales sin preocupaciones legales.

  • Desarrollo de Software: Generación y depuración de código
  • Agentic AI: Agentes autónomos para tareas complejas
  • RAG: Sistemas de recuperación de información
  • Multilingüe: Soporte global para 119 idiomas

Cómo Empezar con Qwen 3

Acceder a Qwen 3 es sencillo gracias a la disponibilidad de documentación oficial y SDKs. Los desarrolladores pueden iniciar la integración utilizando la plataforma Hugging Face para descargar los pesos del modelo directamente. Para uso empresarial, Alibaba Cloud proporciona endpoints de API optimizados que reducen la latencia y mejoran la estabilidad de las conexiones a largo plazo.

Se recomienda comenzar con las variantes más pequeñas (0.6B o 2B) para prototipado en dispositivos de borde, y escalar a las versiones de 235B para tareas que requieren máximo razonamiento. La comunidad de desarrolladores está creciendo rápidamente, con tutoriales y ejemplos de código disponibles en GitHub para acelerar la adopción de esta nueva tecnología.

  • Descarga: Hugging Face
  • API: Alibaba Cloud Console
  • SDK: Python y JavaScript disponibles
  • Soporte: Comunidad activa en GitHub

Comparison

Model: Qwen 3 | Context: 256K | Max Output: 32K | Input $/M: 0.25 | Output $/M: 0.75 | Strength: MoE 235B, Apache 2.0

Model: Llama 3.1 405B | Context: 128K | Max Output: 16K | Input $/M: 0.50 | Output $/M: 0.80 | Strength: Dense Architecture

Model: Mixtral 8x22B | Context: 64K | Max Output: 8K | Input $/M: 0.30 | Output $/M: 0.90 | Strength: MoE 47B Active

Model: GPT-4o | Context: 128K | Max Output: 16K | Input $/M: 5.00 | Output $/M: 15.00 | Strength: Propietario Premium

API Pricing — Input: 0.25 / Output: 0.75 / Context: 256K


Sources

Alibaba Qwen 3.5 AI Launch Sparks Questions For Undervalued Shares

Alibaba’s Qwen 3.5 AI Launch Sparks Questions For Undervalued Shares