ChatGLM3-6B : Le modèle open-source de nouvelle génération avec capacités d'agent
Zhipu AI lance ChatGLM3-6B, un modèle open-source de 6 milliards de paramètres doté de fonctionnalités avancées d'appel de fonctions et d'agent.

Introduction
Le 27 octobre 2023, Zhipu AI, en collaboration avec le laboratoire Tsinghua KEG, a annoncé la sortie de ChatGLM3-6B, une nouvelle génération de modèles de dialogue pré-entraînés ouverts au public. Ce modèle de 6 milliards de paramètres représente une avancée significative dans l'écosystème open-source des grands modèles linguistiques, offrant des capacités avancées qui rivalisent avec des modèles propriétaires plus volumineux.
ChatGLM3-6B est particulièrement remarquable pour ses fonctionnalités d'agent intelligent, ses capacités d'interprétation de code et son système d'appel de fonctions sophistiqué. Ces caractéristiques en font un choix idéal pour les développeurs cherchant à intégrer des systèmes d'intelligence artificielle conversationnelle dans leurs applications sans compromettre sur les performances ou la flexibilité.
Ce modèle s'inscrit dans la continuité des efforts de Zhipu AI pour démocratiser l'accès aux technologies d'intelligence artificielle de pointe. En rendant disponible un modèle aussi performant sous licence open-source, l'entreprise permet aux chercheurs, développeurs et startups d'expérimenter et d'innover sans les contraintes liées aux coûts élevés des solutions propriétaires.
L'ouverture du code source de ChatGLM3-6B favorise également la transparence et la reproductibilité dans la recherche en IA, permettant à la communauté scientifique de mieux comprendre, améliorer et adapter ces technologies à des cas d'usage spécifiques.
Caractéristiques clés et architecture
ChatGLM3-6B dispose d'une architecture optimisée basée sur 6 milliards de paramètres, conçue pour équilibrer performance et efficacité de déploiement. Contrairement aux modèles MoE (Mixture of Experts) très volumineux, ce modèle dense offre une latence réduite tout en maintenant des capacités de traitement de pointe.
Le modèle intègre des fonctionnalités avancées telles que l'appel de fonctions natives, permettant à l'IA de déclencher des actions externes en réponse à des requêtes utilisateur. Cette capacité ouvre la voie à des agents intelligents capables d'interagir avec des APIs, de manipuler des données et d'exécuter des tâches complexes.
L'architecture de ChatGLM3-6B supporte un contexte étendu de 8192 tokens, permettant des conversations plus longues et des tâches nécessitant une mémoire contextuelle importante. La structure transformer optimisée assure une génération fluide et cohérente des réponses.
En termes de multimodalité, bien que principalement textuel, le modèle peut être adapté pour traiter des entrées supplémentaires via des systèmes d'extension, conformément aux développements futurs de l'écosystème GLM.
- 6 milliards de paramètres
- Appel de fonctions intégré
- Contexte maximal de 8192 tokens
- Architecture transformer optimisée
- Capacités d'agent intelligent
Performances et benchmarks
Sur les benchmarks standard, ChatGLM3-6B affiche des résultats impressionnants comparé aux deux premières générations de la série GLM. Sur MMLU, il atteint un score de 68.2%, soit une amélioration de 12 points par rapport à ChatGLM2-6B. Cette progression s'explique par des stratégies d'entraînement optimisées et des jeux de données plus diversifiés.
Dans les tests de codage, notamment HumanEval, ChatGLM3-6B obtient un taux de réussite de 52.5%, dépassant plusieurs modèles concurrents de même taille. Pour les tâches d'ingénierie logicielle, le score SWE-bench atteint 28.7%, démontrant ses compétences en résolution de bugs complexes.
Les tests de dialogue montrent une fluidité et une cohérence nettement supérieures, avec une capacité accrue à maintenir des conversations multi-tours sans perte de contexte. Les utilisateurs rapportent également une meilleure gestion des instructions complexes et des demandes multi-étapes.
Sur les benchmarks chinois comme C-Eval, le modèle obtient des résultats parmi les meilleurs pour sa catégorie de taille, confirmant sa pertinence pour les applications locales et multilingues.
- MMLU: 68.2%
- HumanEval: 52.5%
- SWE-bench: 28.7%
- Amélioration de 12 points par rapport à GLM2
Tarification API
Pour les utilisateurs souhaitant accéder à ChatGLM3 via les API cloud de Zhipu AI, les tarifs sont fixés à 0.50$ par million de tokens en entrée et 1.00$ par million de tokens en sortie. Ces prix restent compétitifs face aux alternatives propriétaires, surtout compte tenu des performances du modèle.
Un plan gratuit est disponible pour les développeurs individuels et les petits projets, avec une allocation mensuelle de 1 million de tokens d'entrée et 0.5 million de tokens de sortie. Cela permet aux développeurs de tester et intégrer le modèle sans frais initiaux.
Les entreprises peuvent bénéficier de tarifs dégressifs selon le volume consommé, avec des réductions pouvant atteindre 50% à partir de 10 millions de tokens par mois. Des options de déploiement privé sont également disponibles pour les cas sensibles.
Comparé à des modèles propriétaires similaires, ChatGLM3 offre un excellent rapport qualité-prix, particulièrement pour les applications nécessitant des fonctionnalités d'agent et d'appel de fonctions.
Tableau comparatif
Voici une comparaison directe entre ChatGLM3-6B et trois modèles concurrents de la même catégorie de taille ou de fonctionnalités similaires. Cette analyse met en évidence les avantages distinctifs de chaque solution selon les besoins spécifiques des projets.
La comparaison se base sur des critères objectifs tels que la longueur maximale du contexte, la taille maximale de sortie, les coûts d'utilisation et les forces techniques principales. Les données reflètent les spécifications publiées par les fournisseurs respectifs.
Les modèles inclus dans cette comparaison représentent des choix populaires dans l'écosystème open-source et commercial, offrant une perspective équilibrée sur le paysage actuel des grands modèles linguistiques.
Cette matrice aide les développeurs à prendre des décisions éclairées en fonction de leurs contraintes budgétaires, techniques et d'application.
Cas d'usage
ChatGLM3-6B excelle particulièrement dans les applications nécessitant des agents intelligents autonomes. Grâce à ses capacités d'appel de fonctions, il peut interagir avec des bases de données, des APIs externes et des systèmes de gestion, rendant possible l'automatisation de workflows complexes.
Dans le domaine du développement logiciel, le modèle s'avère précieux pour l'assistance à la programmation, la génération de documentation technique et la résolution de bugs simples. Son score élevé sur HumanEval en fait un outil pertinent pour les IDEs intelligents.
Pour les systèmes de dialogue client, ChatGLM3-6B offre une expérience conversationnelle naturelle et cohérente, capable de gérer des interactions multi-tours avec persistance du contexte. Cela améliore grandement la satisfaction utilisateur dans les chatbots d'entreprise.
Enfin, les applications de recherche et d'analyse de documents bénéficient de la capacité du modèle à comprendre des textes longs et à extraire des informations structurées, notamment via des systèmes RAG (Retrieval-Augmented Generation).
- Agents intelligents autonomes
- Assistance à la programmation
- Chatbots d'entreprise
- Systèmes RAG
- Automatisation de workflows
Démarrage rapide
Pour accéder à ChatGLM3-6B, rendez-vous sur la page GitHub officielle du projet où vous trouverez les fichiers de modèle, les scripts de déploiement et la documentation complète. Le modèle est compatible avec Hugging Face Transformers et peut être chargé en quelques lignes de code Python.
Des SDK sont disponibles pour Python, Node.js et Java, facilitant l'intégration dans des architectures existantes. Les endpoints API sont accessibles via l'interface de développement de Zhipu AI, avec prise en charge des formats OpenAI-compatible.
Des exemples de code et des notebooks Jupyter sont fournis pour illustrer les cas d'utilisation typiques, notamment l'appel de fonctions personnalisées, les conversations multi-tours et l'interprétation de code.
Une communauté active de développeurs et de chercheurs contribue régulièrement au projet, offrant un support technique et des mises à jour fréquentes.
- Disponible sur Hugging Face et GitHub
- SDKs pour Python, Node.js, Java
- Endpoints API OpenAI-compatible
- Documentation complète et exemples fournis
Comparison
Model: ChatGLM3-6B | Context: 8192 | Max Output: 2048 | Input $/M: 0.50 | Output $/M: 1.00 | Strength: Function calling, agents
Model: Qwen2-7B | Context: 32768 | Max Output: 8192 | Input $/M: 0.70 | Output $/M: 0.90 | Strength: Long context handling
Model: LLaMA2-7B | Context: 4096 | Max Output: 2048 | Input $/M: 0.60 | Output $/M: 1.20 | Strength: General purpose
Model: Baichuan2-7B | Context: 4096 | Max Output: 2048 | Input $/M: 0.80 | Output $/M: 1.10 | Strength: Chinese language
API Pricing — Input: 0.50$/M tokens / Output: 1.00$/M tokens / Context: Pricing for Zhipu AI cloud API access