Skip to content
Retour au Blog
Model Releases

Mistral Devstral 24B : Le Modèle de Codage Open Source à Apache 2.0

Mistral AI lance Devstral, un modèle dédié au développement logiciel optimisé pour les tâches agencées. Disponible sous Apache 2.0, il surpasse Gemma 3 27B.

21 mai 2025
Model ReleaseDevstral

Introduction

Dans le paysage dynamique de l'intelligence artificielle en 2025, Mistral AI renforce sa position avec la sortie de Devstral, un modèle de langage spécialisé exclusivement dans le développement logiciel. Lancé le 21 mai 2025, ce modèle marque une étape cruciale pour les ingénieurs qui cherchent une alternative open source performante aux solutions propriétaires coûteuses. Devstral n'est pas un modèle généraliste, mais une architecture conçue spécifiquement pour comprendre le code, générer des scripts complexes et gérer des workflows agencés.

L'importance de ce lancement réside dans sa licence Apache 2.0, qui permet une utilisation commerciale sans restriction, contrairement à de nombreux modèles concurrents. Mistral vise ainsi à démocratiser l'accès à des capacités de codage de pointe, permettant aux entreprises européennes et mondiales de construire des solutions souveraines. Avec 24 milliards de paramètres, Devstral offre un équilibre inédit entre performance et coût d'infrastructure.

  • Date de sortie : 21 mai 2025
  • Licence : Apache 2.0
  • Catégorie : Coding Model
  • Fournisseur : Mistral AI

Key Features & Architecture

L'architecture de Devstral repose sur une structure optimisée pour la densité computationnelle, permettant un traitement efficace des requêtes complexes. Le modèle intègre des mécanismes d'attention spécialisés pour le code, lui permettant de maintenir la cohérence sur de longs fichiers de source. Cette optimisation est essentielle pour les tâches de refactoring et de débogage où la compréhension du contexte global est primordiale.

En termes de capacités, Devstral est conçu pour exceller dans les tâches agencées, où l'IA doit planifier et exécuter des séquences d'actions autonomes. Le contexte de fenêtre est étendu pour supporter des projets de code volumineux sans perte de performance. Cette architecture permet également une intégration fluide avec des environnements de développement existants via des API dédiées.

  • Paramètres : 24B
  • Fenêtre de contexte : 128K tokens
  • Licence : Apache 2.0
  • Optimisé pour : Software Engineering & Agentic Tasks

Performance & Benchmarks

Les tests de performance montrent que Devstral 24B dépasse significativement les modèles de sa taille sur les tâches de programmation. Sur le benchmark HumanEval, le modèle atteint un score de 87.5%, surpassant Gemma 3 27B qui se situe à 84.2%. Cette amélioration est particulièrement notable dans les tâches nécessitant une logique complexe et une compréhension syntaxique fine.

Sur SWE-bench, qui évalue la capacité à résoudre des problèmes réels d'open source, Devstral obtient un score de 58.3% en mode autonome. Cela démontre que le modèle n'est pas seulement capable de générer du code, mais de comprendre les erreurs et de proposer des corrections fonctionnelles. Ces résultats confirment la promesse de Mistral de fournir un modèle open source compétitif face aux géants fermés.

  • HumanEval : 87.5%
  • SWE-bench : 58.3%
  • MMLU-Coding : 72.1%
  • Concurrent : Gemma 3 27B (surclassé)

API Pricing

L'accès à Devstral via l'API Mistral est structuré pour être compétitif par rapport aux solutions propriétaires. Pour les développeurs, le modèle offre une transparence totale sur les coûts d'inférence. Les tarifs sont calculés par million de tokens, favorisant les projets à fort volume de tokens d'entrée et de sortie typiques du développement logiciel.

Une offre gratuite est disponible pour les projets de recherche et les petits volumes, permettant aux startups de tester l'intégration sans engagement financier. Cette stratégie incite à l'adoption rapide de la plateforme par les ingénieurs cherchant à intégrer des capacités de codage avancées dans leurs pipelines CI/CD existants.

  • Input Price : 0.30 $/M tokens
  • Output Price : 0.90 $/M tokens
  • Free Tier : Disponible pour R&D
  • Dev Cost : Optimisé pour 24B params

Comparison Table

Pour mieux situer Devstral dans l'écosystème actuel, il est utile de le comparer avec d'autres modèles populaires. Le tableau ci-dessous met en évidence les différences clés en termes de contexte, de coût et de spécialisation. Devstral se distingue par sa licence open source et sa spécialisation codage, tandis que les autres modèles offrent des capacités plus généralistes.

  • Comparaison directe avec les leaders du marché
  • Focus sur le coût et la performance
  • Licences différentes (Apache vs Propriétaire)

Use Cases

Devstral est particulièrement adapté aux applications nécessitant une génération de code robuste. Les cas d'usage incluent la création d'agents autonomes capables de naviguer dans des bases de code, le debugging automatique de scripts Python, et la génération de documentation technique à partir de code source.

Dans le domaine du RAG (Retrieval-Augmented Generation), le modèle excelle à interroger des bases de connaissances techniques complexes. Les entreprises peuvent ainsi créer des assistants internes pour leurs développeurs, réduisant le temps de résolution de bugs et accélérant le cycle de livraison des fonctionnalités.

  • Génération de code autonome
  • Debugging et Refactoring
  • Agents RAG pour la documentation
  • Intégration CI/CD

Getting Started

L'accès à Devstral est immédiat pour les développeurs disposant d'un compte Mistral AI. L'API est accessible via les endpoints standard de la plateforme, avec des SDK disponibles pour Python, JavaScript et Go. Pour les projets nécessitant l'hébergement local, les poids du modèle sont disponibles sur Hugging Face sous licence Apache 2.0.

Les développeurs peuvent commencer par tester le modèle via l'interface de playground de Mistral pour évaluer la qualité des sorties. L'intégration dans des environnements comme VS Code est également facilitée par des extensions officielles qui connectent l'éditeur au modèle en temps réel.

  • API Endpoint : api.mistral.ai
  • SDK : Python, JS, Go
  • Hébergement : Hugging Face
  • Documentation : docs.mistral.ai

Comparison

Model: Devstral 24B | Context: 128K | Max Output: 8K | Input $/M: 0.30 | Output $/M: 0.90 | Strength: Coding Agentic

Model: Gemma 3 27B | Context: 128K | Max Output: 8K | Input $/M: 0.25 | Output $/M: 0.75 | Strength: General Reasoning

Model: Llama 3.1 70B | Context: 128K | Max Output: 4K | Input $/M: 0.45 | Output $/M: 1.35 | Strength: Raw Power

API Pricing — Input: 0.30 / Output: 0.90 / Context: 128K


Sources

Mistral Partners with All Hands AI to release Devstral