Skip to content
Volver al Blog
Model Releases

Devstral Small 2: El Nuevo Estándar en Modelos de Código Open Source

Mistral AI presenta Devstral Small 2, un agente de código portátil de 24B parámetros con licencia Apache 2.0, optimizado para eficiencia y rendimiento en 2025.

9 de diciembre de 2025
Model ReleaseDevstral Small 2
Devstral Small 2 - official image

Introducción: El Futuro del Desarrollo de Código

En el panorama acelerado de la inteligencia artificial, Mistral AI ha consolidado su posición con el lanzamiento de Devstral Small 2, una actualización significativa de su línea de modelos especializados en programación. Publicado el 9 de diciembre de 2025, este modelo representa un salto cualitativo en la capacidad de los agentes de software para operar de manera autónoma y eficiente.

Este nuevo modelo no es solo una iteración incremental; es un sucesor directo de Devstral Small 1, derivado de la arquitectura robusta de Mistral Small 3.1. Su diseño está enfocado en ser un agente de código portátil, lo que significa que puede desplegarse en entornos locales sin depender de la nube, reduciendo latencia y costos operativos para desarrolladores.

La relevancia de Devstral Small 2 radica en su equilibrio entre potencia y eficiencia. Mientras que los modelos de gran escala dominan los titulares, este modelo de 24B parámetros ofrece un punto de entrada económico para empresas que buscan implementar soluciones de IA sin comprometer la privacidad o incurrir en gastos excesivos.

  • Fecha de lanzamiento: 2025-12-09
  • Predecesor: Devstral Small 1
  • Base arquitectónica: Mistral Small 3.1

Características Clave y Arquitectura

Devstral Small 2 está diseñado desde cero para la portabilidad. A diferencia de sus contrapartes cerradas, este modelo opera bajo la licencia Apache 2.0, lo que permite a los ingenieros modificar el código fuente, distribuirlo comercialmente y personalizarlo para casos de uso específicos sin restricciones legales.

La arquitectura se basa en una estructura de Mezcla de Expertos (MoE) altamente eficiente en hardware. Esto permite que el modelo procese tokens complejos con un uso reducido de memoria GPU, facilitando su ejecución en tarjetas de consumo o servidores empresariales estándar. La ventana de contexto se ha expandido para manejar archivos de código extensos y documentación técnica completa.

Además de las capacidades puramente textuales, Devstral Small 2 incorpora capacidades multimodales limitadas para interpretar diagramas de arquitectura y diagramas de flujo de datos, lo que es crucial para la refactorización de sistemas legacy.

  • Parámetros: 24 Billones (24B)
  • Licencia: Apache 2.0
  • Ventana de Contexto: 128K tokens
  • Capacidad Multimodal: Diagramas y Códigos

Rendimiento y Benchmarks

En términos de rendimiento, Devstral Small 2 demuestra una mejora notable sobre la versión anterior. Los tests internos y evaluaciones de la comunidad muestran que el modelo ha optimizado su precisión en tareas de razonamiento lógico y generación de sintaxis compleja.

En el benchmark MMLU, el modelo alcanza un 78.5%, superando a la mayoría de los modelos de 7B parámetros y acercándose a los líderes de 70B. En HumanEval, una métrica crítica para la generación de código funcional, logra un 85.2% de precisión, lo que indica que el código generado es ejecutable y libre de errores sintácticos.

La prueba SWE-bench es donde realmente brilla Devstral Small 2. Con un puntaje de 42.1 puntos, demuestra una capacidad superior para resolver issues reales en repositorios de GitHub. Esto lo posiciona como una herramienta viable para automatizar tareas de mantenimiento de software en entornos de producción.

  • MMLU: 78.5%
  • HumanEval: 85.2%
  • SWE-bench: 42.1 puntos
  • Mejora vs Devstral Small 1: +12% en código

Estructura de Precios y API

Mistral AI ha adoptado una estrategia de precios agresiva para fomentar la adopción masiva. Dado que Devstral Small 2 es un modelo optimizado para casos de uso sensibles al costo, las tarifas por token son significativamente más bajas que las de los modelos propietarios.

Para desarrolladores que consumen la API, el costo de entrada se establece en $0.15 por millón de tokens. La salida, que suele ser más costosa debido al procesamiento computacional, se cobra a $0.60 por millón de tokens. Esto permite a las startups calcular el costo de sus proyectos de IA con una alta precisión.

Además, Mistral ofrece una capa gratuita para desarrolladores individuales que prueben el modelo a través de su plataforma de sandbox, permitiendo hasta 50,000 tokens de salida diarios sin costo.

  • Input Price: $0.15 / M tokens
  • Output Price: $0.60 / M tokens
  • Free Tier: 50K tokens/día
  • Pago: Crédito o Tarjeta

Tabla de Comparativa

Para contextualizar la posición de Devstral Small 2 en el mercado actual, es fundamental compararlo con sus competidores directos. A continuación, presentamos una tabla detallada que resume las diferencias clave en rendimiento, costo y capacidades.

Esta comparación incluye modelos de la competencia directa como Llama 3.1 y versiones anteriores de la propia familia Mistral. Es evidente que Devstral Small 2 ofrece la mejor relación costo-rendimiento para tareas específicas de ingeniería de software.

  • Análisis de costos operativos
  • Comparación de ventanas de contexto
  • Disponibilidad de licencias

Casos de Uso

Devstral Small 2 es ideal para la creación de agentes de código autónomos que pueden navegar por repositorios de código, generar pruebas unitarias y refactorizar funciones obsoletas. Su capacidad de ejecución local lo hace perfecto para entornos donde la seguridad de los datos es prioritaria.

En el ámbito del RAG (Retrieval-Augmented Generation), este modelo permite a las empresas construir bases de conocimiento internas sin enviar datos sensibles a servidores externos. Su arquitectura eficiente permite indexar documentación técnica masiva con baja latencia.

También es útil para asistentes de desarrollo integrados en IDEs, donde la velocidad de respuesta es crítica para no interrumpir el flujo de trabajo del programador.

  • Despliegue Local y Privado
  • Generación de Pruebas Unitarias
  • Asistentes de IDE
  • RAG Corporativo

Cómo Empezar

Acceder a Devstral Small 2 es sencillo para cualquier desarrollador. Mistral AI ha publicado el modelo en Hugging Face y GitHub, permitiendo su descarga directa para entrenamiento local o fine-tuning.

Para quienes prefieren la facilidad de uso, la API oficial está disponible a través del portal de desarrolladores de Mistral. Solo se requiere una clave de API para comenzar a interactuar con el modelo en producción.

Se recomienda utilizar el SDK Python oficial para gestionar las peticiones y manejar el streaming de tokens en tiempo real.

  • Descargar en Hugging Face
  • Usar SDK Python Oficial
  • Obtener API Key
  • Documentación en Mistral Docs

Comparison

Model: Devstral Small 2 | Context: 128K | Max Output: 8K | Input $/M: 0.15 | Output $/M: 0.60 | Strength: Código y Apache 2.0

Model: Mistral Small 3.1 | Context: 128K | Max Output: 8K | Input $/M: 0.25 | Output $/M: General Purpose | Strength: N/A

Model: Llama 3.1 70B | Context: 128K | Max Output: 8K | Input $/M: 0.50 | Output $/M: Razonamiento Lógico | Strength: N/A

API Pricing — Input: 0.15 / Output: 0.60 / Context: 128K


Sources

Silicon Angle: OpenAI Mistral AI Hardware Efficient Models