Baidu dévoile ERNIE-5.1-Preview, leader sur LMArena en Chine et top 4 mondial, avec une architecture MoE optimisée et des coûts de pré-entraînement réduits de 94%.

Baidu a officiellement lancé ERNIE-5.1-Preview le 9 mai 2026, marquant une étape cruciale dans la course à l'efficacité des modèles linguistiques de grande taille. Ce nouveau modèle n'est pas seulement une itération incrémentale, mais une réponse directe aux défis d'optimisation posés par des concurrents comme DeepSeek. Avec une architecture Mixture of Experts (MoE) radicalement compressée, ERNIE-5.1-Preview redéfinit les standards de performance par rapport aux coûts de calcul.
Dans un marché où la transparence et la performance sur les leaderboards sont devenues des indicateurs clés, ERNIE-5.1-Preview se distingue immédiatement. Il s'agit d'un modèle fermé, non open source, qui vise les entreprises et les développeurs cherchant une puissance de raisonnement supérieure sans les coûts exorbitants habituels. Le lancement coïncide avec une période de forte demande pour des agents autonomes capables de gérer des tâches complexes.
Ce modèle s'inscrit dans la stratégie de Baidu pour dominer l'écosystème chinois de l'IA tout en restant compétitif au niveau global. Les résultats préliminaires sont prometteurs, suggérant que l'efficacité ne signifie pas nécessairement une baisse de performance, contrairement aux craintes initiales concernant les modèles compressés.
L'architecture sous-jacente d'ERNIE-5.1-Preview repose sur un framework d'entraînement élastique Once-For-All, permettant une flexibilité sans précédent dans les dimensions de profondeur, largeur et parcimonie. Cette approche permet au modèle de s'adapter dynamiquement aux besoins de calcul spécifiques tout en maintenant une cohérence structurelle. Le système utilise une infrastructure d'apprentissage par renforcement entièrement asynchrone et découplée construite sur PaddlePaddle, facilitant l'entraînement à grande échelle.
La compression est l'aspect le plus remarquable de cette version. Les paramètres totaux sont réduits à environ un tiers de ceux d'ERNIE-5.0, tandis que les paramètres actifs sont réduits à la moitié. Cette réduction drastique est compensée par une utilisation intelligente des experts, permettant au modèle de se concentrer sur les tâches pertinentes sans surcharge inutile. Cette efficacité permet d'atteindre des performances de pointe avec seulement environ 6% du coût de pré-entraînement des modèles comparables.
Le processus de post-entraînement est structuré en quatre étapes rigoureuses : SFT (Supervised Fine-Tuning), Formation du Modèle d'Expertise de Domaine, Distillation On-Policy, et RL Online Général. Cette méthodologie garantit que le modèle ne perd pas de compétences lors de l'optimisation pour l'agilité et l'efficacité, contrairement aux modèles qui subissent une dégradation de performance lors de la compression.
Sur le leaderbord LMArena, ERNIE-5.1-Preview s'impose comme le numéro 1 mondial des modèles chinois avec un score impressionnant de 1223. Il se classe également 4ème au niveau mondial global dans la catégorie Recherche. Cette performance est particulièrement notable étant donné la concurrence féroce dans le secteur asiatique. Le modèle excelle également dans des domaines spécialisés où la précision est critique, comme le secteur juridique et gouvernemental où il occupe la première place mondiale.
Les capacités de raisonnement mathématique et d'agent sont renforcées par une formation post-entraînement à grande échelle. Sur AIME26 avec l'utilisation d'outils, le modèle atteint un score de 99.6, ne se classant que second derrière Gemini 3.1 Pro. De plus, il surpasse DeepSeek-V4-Pro sur les tâches d'évaluation d'agents tau-cubed-bench et SpreadsheetBench-Verified, démontrant une supériorité dans la manipulation de données complexes et la planification de tâches.
Dans les domaines techniques et créatifs, ERNIE-5.1-Preview maintient un niveau élevé de compétitivité. Il se classe 7ème mondial dans les services logiciels et informatiques, et ses capacités d'écriture créative approchent celles de Gemini 3.1 Pro. Ces résultats confirment que la compression des paramètres n'a pas compromis la qualité du contenu généré ou la capacité de raisonnement logique.
Baidu n'a pas encore publié de tableau de prix public détaillé pour l'API ERNIE-5.1-Preview au moment de ce lancement. En raison de la nature préliminaire du modèle (Preview) et de la stratégie de tarification dynamique souvent employée pour les modèles MoE haut de gamme, les coûts exacts par million de tokens d'entrée et de sortie restent actuellement indéterminés pour le public général.
Il est probable que les tarifs suivent une structure similaire aux offres Baidu Cloud actuelles, avec des réductions potentielles pour les gros volumes et des options de mise en cache. Les développeurs doivent surveiller les mises à jour du portail de développement Baidu pour l'annonce officielle des tarifs. Cependant, l'efficacité du modèle suggère que le coût par tâche pourrait être inférieur à celui des modèles plus lourds malgré les tarifs potentiels.
Pour les besoins immédiats, Baidu propose un accès via ses plateformes de production créative. Les tarifs spécifiques dépendront de l'infrastructure utilisée et de la région de déploiement. Il est recommandé de contacter le support entreprise Baidu pour obtenir des devis sur mesure pour les projets industriels critiques.
ERNIE-5.1-Preview est particulièrement adapté aux applications nécessitant une haute précision dans des domaines réglementés. Grâce à son classement n°1 mondial en droit et gouvernement, il est idéal pour les assistants juridiques automatisés, l'analyse de contrats et la conformité réglementaire. Sa capacité à traiter des contextes complexes en fait un choix pertinent pour les systèmes d'aide à la décision dans le secteur public.
Dans le domaine des opérations financières et de la gestion d'entreprise, le modèle se classe 4ème mondial. Il peut être intégré dans des systèmes de trading algorithmique, d'analyse de marché ou de gestion de la chaîne d'approvisionnement. Sa performance dans les services logiciels et IT (7ème mondial) en fait un candidat solide pour les assistants de codage et la maintenance de code à grande échelle.
Les capacités d'agent autonomes ouvrent la voie à des applications avancées. Le modèle est déjà déployé sur plus de 10 plateformes d'agents de production créative, notamment ISEKAI ZERO et Mulan AI. Cela suggère une utilisation massive dans la génération de contenu multimodal, la création de jeux vidéo et la conception d'interfaces utilisateur dynamiques.
L'accès à ERNIE-5.1-Preview se fait principalement via l'API de Baidu Cloud. Les développeurs doivent créer un compte sur la plateforme Baidu Cloud pour obtenir les clés d'API nécessaires. Le SDK officiel est disponible pour les langages principaux, permettant une intégration rapide dans les applications existantes. La documentation technique détaillée est accessible sur le blog officiel de Baidu pour ERNIE.
Pour les projets nécessitant des capacités d'agent avancées, l'intégration avec les plateformes partenaires comme ISEKAI ZERO est recommandée. Ces plateformes offrent des environnements de test pré-configurés pour évaluer les capacités d'agent du modèle avant un déploiement en production. L'utilisation du framework Once-For-All permet également une personnalisation fine pour les cas d'usage spécifiques.
Les développeurs sont encouragés à tester le modèle sur les leaderboards LMArena pour valider leur propre expérience. Les ressources de recherche sur PaddlePaddle fournissent des exemples de code pour l'intégration de l'infrastructure d'apprentissage par renforcement. La transition vers la version finale sera annoncée prochainement avec des mises à jour de performance attendues.