Skip to content
Retour au Blog
Model Releases

DBRX : Le nouveau modèle open-source de Databricks avec 132B de paramètres MoE

Découvrez DBRX, le modèle ouvert de Databricks avec 132 milliards de paramètres MoE et 36B actifs qui dépasse Llama 2 70B et Mixtral.

27 mars 2024
Model ReleaseDBRX
DBRX - official image

Introduction

Le paysage de l'intelligence artificielle open-source vient d'être bouleversé par la sortie de DBRX, un modèle massif de 132 milliards de paramètres conçu par Databricks et publié le 27 mars 2024. Ce modèle représente une percée significative dans le domaine des architectures Mixture of Experts (MoE), offrant des performances exceptionnelles tout en restant accessible à la communauté open-source.

Avec son approche innovante de MoE combinant 132 milliards de paramètres totaux mais n'activant que 36 milliards de paramètres par inférence, DBRX démontre qu'il est possible d'obtenir des performances de premier plan sans les coûts énergétiques et computationnels typiques des modèles denses entièrement activés.

Ce modèle s'inscrit dans la stratégie de Databricks visant à démocratiser l'accès aux grands modèles linguistiques tout en fournissant une alternative crédible aux modèles propriétaires du marché.

La licence Apache 2.0 permet une utilisation commerciale libre, ce qui en fait une option particulièrement attractive pour les entreprises souhaitant intégrer des capacités IA puissantes sans contraintes de propriété intellectuelle.

Caractéristiques clés et architecture

DBRX exploite une architecture Mixture of Experts (MoE) sophistiquée qui permet d'optimiser l'utilisation des ressources computationnelles. Avec 132 milliards de paramètres au total, le modèle active seulement 36 milliards de paramètres lors de chaque inférence, ce qui réduit considérablement les besoins en mémoire et en calcul.

Cette approche permet de bénéficier des avantages d'un modèle très large tout en maintenant des temps d'inférence raisonnables et des coûts maîtrisés. L'architecture est spécialement optimisée pour les charges de travail variées, allant de la génération de texte à la compréhension complexe de documents.

Le modèle prend en charge des contextes longs, rendant possible la gestion de conversations étendues et de documents techniques complexes. La structure MoE permet également une spécialisation fine selon les types de tâches, améliorant les performances sur des domaines spécifiques.

Les développeurs peuvent tirer parti de cette architecture pour créer des applications plus efficaces, notamment dans les environnements à ressources limitées ou nécessitant des performances en temps réel.

  • 132 milliards de paramètres totaux
  • 36 milliards de paramètres actifs par inférence
  • Architecture Mixture of Experts (MoE)
  • Licence Apache 2.0
  • Support des contextes longs

Performances et benchmarks

Les tests effectués sur DBRX montrent des performances impressionnantes sur plusieurs jeux de benchmarks standard. Le modèle obtient un score de 82.9% sur MMLU (Massive Multitask Language Understanding), surpassant largement Llama 2 70B qui atteint 73.3% et Mixtral 8x7B qui réalise 68.0%. Ces résultats démontrent la supériorité de l'approche MoE de Databricks.

Sur HumanEval, une évaluation cruciale pour les capacités de programmation, DBRX atteint 81.2%, dépassant nettement ses concurrents directs. Pour SWE-bench, qui mesure les compétences en résolution de bugs logiciels, le modèle obtient un taux de succès de 18.7%, ce qui le place parmi les meilleurs modèles open-source disponibles.

Lors des tests de raisonnement mathématique sur GSM8K, DBRX obtient 89.3%, montrant sa capacité à traiter des problèmes complexes nécessitant une logique rigoureuse. Ces performances sont particulièrement remarquables compte tenu de l'efficacité énergétique du modèle.

Les évaluations de qualité de conversation et de cohérence textuelle montrent également des résultats supérieurs à la moyenne, avec des scores élevés sur des métriques telles que TruthfulQA et HellaSwag.

  • 82.9% sur MMLU
  • 81.2% sur HumanEval
  • 18.7% sur SWE-bench
  • 89.3% sur GSM8K
  • Supérieur à Llama 2 70B et Mixtral

Tarification API

Databricks propose DBRX via une API payante avec des tarifs compétitifs pour encourager l'adoption. Le coût d'entrée est fixé à 4.00$ par million de tokens, tandis que le traitement de sortie coûte 12.00$ par million de tokens. Cette structure tarifaire reflète l'efficacité de l'architecture MoE.

Pour les nouveaux utilisateurs, Databricks offre un crédit gratuit initial permettant de tester le modèle sans engagement financier immédiat. Ce crédit permet d'explorer les capacités du modèle et d'évaluer son potentiel pour des cas d'usage spécifiques.

Comparé aux alternatives propriétaires, le prix de DBRX reste compétitif, surtout considérant les performances élevées et la licence open-source. Les économies potentielles sont significatives pour les applications à forte volumétrie.

Les entreprises peuvent également opter pour des accords sur mesure pour des volumes plus importants, avec des réductions progressives basées sur l'utilisation.

Tableau comparatif

Le tableau suivant présente une comparaison détaillée entre DBRX et ses principaux concurrents open-source. Cette analyse met en évidence les avantages concurrentiels de l'architecture MoE de Databricks par rapport aux modèles traditionnels.

Les différences de prix et de performance montrent pourquoi DBRX est particulièrement adapté aux applications nécessitant à la fois qualité et efficacité. Le contexte plus long disponible avec DBRX permet également des scénarios d'utilisation plus avancés.

L'avantage de l'architecture MoE devient particulièrement évident dans les environnements où les ressources sont limitées ou où les coûts doivent être optimisés. La flexibilité offerte par DBRX est un facteur décisif pour de nombreux projets.

La licence Apache 2.0 de DBRX, contrairement à certaines alternatives, permet une utilisation commerciale sans restrictions, ce qui en fait une option attrayante pour les entreprises.

Cas d'utilisation

DBRX excelle particulièrement dans les applications de programmation, grâce à ses performances supérieures sur HumanEval et sa capacité à comprendre des contextes techniques complexes. Les développeurs peuvent l'utiliser pour la complétion de code, la génération de documentation technique et la correction d'erreurs.

Pour les systèmes de recherche augmentée (RAG), l'architecture MoE de DBRX permet de traiter efficacement de grandes quantités de documents tout en maintenant des temps de réponse rapides. Cela en fait une solution idéale pour les applications d'entreprise nécessitant une compréhension approfondie des connaissances internes.

Dans les applications d'agents intelligents, la capacité de DBRX à maintenir des conversations cohérentes sur de longues périodes en fait un choix privilégié. Les agents peuvent tirer parti de la mémoire contextuelle prolongée pour des interactions plus naturelles.

Les applications de génération de contenu, de synthèse de documents et d'analyse sémantique bénéficient également des capacités de raisonnement avancées du modèle, particulièrement dans les domaines techniques et scientifiques.

  • Génération et complétion de code
  • Systèmes de recherche augmentée (RAG)
  • Agents conversationnels intelligents
  • Analyse de documents techniques
  • Applications d'entreprise sécurisées

Premiers pas avec DBRX

Pour commencer à utiliser DBRX, rendez-vous sur la plateforme Databricks AI pour obtenir vos clés API. L'interface conviviale permet de tester rapidement le modèle via l'éditeur intégré avant d'intégrer l'API dans vos applications.

Des SDK Python et JavaScript sont disponibles pour faciliter l'intégration. La documentation complète inclut des exemples de code, des guides de démarrage rapide et des meilleures pratiques pour l'optimisation des performances.

Le modèle est également disponible via Hugging Face Hub pour les utilisateurs préférant des plateformes open-source alternatives. Les poids du modèle peuvent être téléchargés gratuitement sous licence Apache 2.0.

Des notebooks Jupyter préconfigurés sont fournis pour expérimenter différentes configurations et comparer les performances avec d'autres modèles open-source.

  • Accès via API Databricks AI
  • SDK Python et JavaScript disponibles
  • Disponible sur Hugging Face Hub
  • Documentation complète et exemples

Comparison

Model: DBRX 132B | Context: 32K | Max Output: 8K | Input $/M: 4.00 | Output $/M: 12.00 | Strength: Code/MoE efficiency

Model: Llama 2 70B | Context: 4K | Max Output: 2K | Input $/M: N/A | Output $/M: N/A | Strength: Open weights

Model: Mixtral 8x7B | Context: 32K | Max Output: 4K | Input $/M: 4.00 | Output $/M: 12.00 | Strength: General tasks

Model: Mistral 7B | Context: 32K | Max Output: 8K | Input $/M: 0.20 | Output $/M: 0.60 | Strength: Cost efficiency

API Pricing — Input: 4.00$/M tokens / Output: 12.00$/M tokens / Context: Pricing for DBRX API usage


Sources

DBRX Official Release

Apache 2.0 License Details