Blog
Actualités, tutoriels et perspectives sur l'IA
Actualités, tutoriels et perspectives sur l'IA

Yandex dévoile Alice AI 1.0, le premier grand modèle linguistique russe majeur. Analyse technique, pricing API et benchmarks pour les développeurs.

MiniMax lance M2, un modèle open-source de 230 milliards de paramètres MoE surpassant les concurrents sur les benchmarks de codage et de raisonnement.

Zhipu AI lance GLM-4.6, un modèle open source capable de s'exécuter nativement sur des puces domestiques comme Cambricon, avec une fenêtre de contexte de 200K.

IBM lance Granite 4.0 avec une architecture Mamba-2 Transformer. Apache 2.0. Benchmarks élevés.

Découvrez Claude Haiku 4.5, le modèle le plus rapide d'Anthropic avec une fenêtre de contexte de 200K tokens et une tarification ultra-compétitive.

Sorti le 29 septembre 2025, DeepSeek V3.2 introduit une architecture MoE massive à 671 milliards de paramètres. Un benchmark technique pour les développeurs.

Découvrez Claude Sonnet 4.5, le modèle le plus performant d'Anthropic pour le développement logiciel, avec 1M de tokens de contexte et des capacités agentic.

Découvrez Qwen3-Next, le nouveau modèle open-source d'Alibaba Cloud avec 80B de paramètres MoE. Une performance Sonnet 4.5 locale.

Moonshot AI lance Kimi K2, un modèle open-source massif de 1T paramètres. Découvrez pourquoi cette architecture MoE change la donne pour le développement logiciel et l'IA en 2025.