Skip to content
Retour au Blog
Model Releases

GLM-4.5 Air : La Révolution du MoE Léger de Zhipu AI

Zhipu AI dévoile GLM-4.5 Air, un modèle open-source de 106B paramètres MoE optimisé pour une inférence ultra-rapide sur infrastructure H20. Une alternative performante pour les développeurs.

28 juillet 2025
Model ReleaseGLM-4.5 Air
GLM-4.5 Air - official image

Introduction : Pourquoi GLM-4.5 Air Change la Partie

Dans le paysage compétitif des modèles de langage, Zhipu AI a annoncé le lancement de GLM-4.5 Air le 28 juillet 2025. Ce nouveau modèle marque une évolution stratégique pour les entreprises cherchant à déployer une intelligence artificielle de pointe sans les coûts prohibitifs des architectures massives. Contrairement à la version flagship GLM-4.5, GLM-4.5 Air est conçu spécifiquement pour l'efficacité opérationnelle tout en maintenant des capacités cognitives élevées.

L'importance de cette release réside dans sa capacité à concilier performance et accessibilité. Zhipu AI a visé une niche critique : les environnements de production où la latence est cruciale. En utilisant une architecture MoE (Mixture of Experts), le modèle offre une densité de paramètres intelligente, permettant des déductions complexes sans surcharger le matériel serveur. C'est une réponse directe à la demande croissante d'agents autonomes qui nécessitent une réponse rapide et précise.

  • Date de sortie : 28 juillet 2025
  • Licence : Open Source (MIT)
  • Architecture : Mixture of Experts (MoE)

Architecture et Caractéristiques Techniques

GLM-4.5 Air repose sur une architecture sophistiquée de 106 milliards de paramètres MoE. Cette configuration permet au modèle d'activer uniquement les experts nécessaires pour chaque tâche, réduisant ainsi la charge de calcul tout en préservant la qualité des réponses. L'inférence est optimisée pour fonctionner efficacement sur 8 cartes graphiques NVIDIA H20, ce qui en fait un choix idéal pour les clusters de calcul régionaux.

Le modèle intègre également des capacités multimodales avancées et un contexte de fenêtre étendu, permettant de traiter de longs documents techniques ou des sessions de codage prolongées. Zhipu a mis l'accent sur la réduction de la latence d'inférence, rendant GLM-4.5 Air particulièrement adapté aux applications en temps réel comme les assistants de développement ou les chatbots interactifs.

  • Paramètres : 106B MoE
  • Hardware cible : 8x NVIDIA H20
  • Mode : Raisonnement hybride (Thinking & Non-Thinking)

Performance et Benchmarks Comparatifs

Sur le plan des performances, GLM-4.5 Air se distingue par une efficacité remarquable. Selon les tests publics, il obtient un score de 59,8 sur 12 benchmarks industriels standard, se classant 6e dans sa catégorie. Ce score est particulièrement impressionnant compte tenu de sa taille réduite par rapport à la version complète GLM-4.5. Le modèle excelle dans les tâches de raisonnement logique et l'utilisation d'outils.

Les tests de codage, notamment sur HumanEval et SWE-bench, montrent une compétitivité directe avec des modèles plus lourds. La capacité à exécuter des agents autonomes pendant des heures sans dégradation significative de la performance est un point fort majeur. Zhipu affirme que ce modèle rivalise avec des concurrents comme Claude Opus 4.5 sur des tâches spécifiques de développement logiciel.

  • Score global : 59,8 / 100
  • HumanEval : 92%
  • Raisonnement : Mode Thinking activé

Tarification API et Modèle de Prix

Zhipu AI propose GLM-4.5 Air avec une approche hybride de tarification. Pour les développeurs souhaitant héberger le modèle en local, les poids sont disponibles gratuitement sous licence MIT. Cependant, l'accès via l'API cloud est facturé selon un modèle à l'usage. Les tarifs sont conçus pour être compétitifs par rapport aux modèles fermés, encourageant l'adoption massive dans les startups et les PME.

La gratuité pour les volumes faibles permet aux ingénieurs de tester l'intégration sans risque financier. Pour les volumes élevés, la tarification reste inférieure à celle des modèles propriétaires équivalents. Cette stratégie de prix vise à démocratiser l'accès à une technologie de pointe tout en générant un revenu pour l'infrastructure de Zhipu.

  • Accès local : Poids gratuits (MIT)
  • API : Tarification à la demande
  • Free tier : Disponible pour les développeurs

Tableau Comparatif des Modèles

Pour bien situer GLM-4.5 Air, il est essentiel de le comparer à ses concurrents directs. Le tableau ci-dessous met en évidence les avantages en termes de contexte, de coût et de capacités. GLM-4.5 Air se positionne comme l'option équilibrée entre la puissance brute de la version complète et l'efficacité de modèles plus légers comme Llama 3.1 70B.

Les prix indiqués sont des estimations basées sur les standards du marché pour les modèles open-source de cette génération. La force principale de GLM-4.5 Air réside dans son optimisation MoE, offrant un meilleur rapport performance/coût que les modèles denses traditionnels.

  • Comparaison directe avec GLM-4.5 et Llama 3.1
  • Focus sur le coût par million de tokens
  • Analyse des capacités d'agents autonomes

Cas d'Usage Idéaux

GLM-4.5 Air est particulièrement adapté aux applications nécessitant une latence faible et une précision élevée. Les scénarios de développement logiciel, où le modèle doit générer du code, déboguer et exécuter des tests, sont un usage parfait. Les agents autonomes capables de naviguer dans des environnements complexes profitent également de ses capacités de raisonnement hybride.

Dans le domaine du RAG (Retrieval-Augmented Generation), le modèle gère efficacement de longs contextes documentaires sans saturer la mémoire. Les entreprises de services clients peuvent également l'utiliser pour des chatbots avancés capables de résoudre des problèmes techniques complexes en temps réel, surpassant les modèles de base par leur compréhension contextuelle.

  • Développement logiciel et agents autonomes
  • Chatbots techniques et support client
  • Systèmes RAG à contexte long

Comment Commencer avec GLM-4.5 Air

L'accès au modèle est simplifié grâce aux outils fournis par Zhipu AI. Les développeurs peuvent télécharger les poids directement depuis les dépôts officiels ou utiliser l'API publique pour une intégration rapide. Des SDKs sont disponibles pour Python et JavaScript, facilitant l'incorporation dans les applications web et mobiles existantes.

Pour les équipes techniques, la documentation détaillée couvre l'optimisation des hyperparamètres et la configuration des clusters GPU. Zhipu fournit également des exemples de code pour l'inférence en mode raisonnement, permettant aux ingénieurs de maximiser les performances de leur infrastructure H20 dès le premier déploiement.

  • Téléchargement : GitHub et Hugging Face
  • SDK : Python, JavaScript
  • Documentation : glm45.org

Comparison

Model: GLM-4.5 Air | Context: 128K | Max Output: 8K | Input $/M: 0.20 | Output $/M: 0.60 | Strength: Meilleur rapport MoE/Coût

Model: GLM-4.5 | Context: 128K | Max Output: 8K | Input $/M: 1.50 | Output $/M: 4.50 | Strength: Performance brute maximale

Model: Llama 3.1 70B | Context: 128K | Max Output: 8K | Input $/M: 0.15 | Output $/M: 0.45 | Strength: Communauté et écosystème

API Pricing — Input: 0.20 / Output: 0.60 / Context: 128K


Sources

GLM-4.5 - Zhipu AI Official

GLM-4.5-Air: Pricing, Benchmarks & Performance

Zhipu AI Releases GLM-5