Blog
Actualités, tutoriels et perspectives sur l'IA
Actualités, tutoriels et perspectives sur l'IA

Cohere lance Command A, un modèle de 111B paramètres open source optimisé pour le RAG, les agents et les tâches complexes.

Découvrez Gemma 3, le nouveau modèle multimodal de Google DeepMind avec 128K context et support vision, disponible en open source.

Découvrez InternLM 3, le modèle 8B bilingue de Shanghai AI Lab. Il surpasse Llama 3.1 et Qwen2.5 avec un contexte 128K et une licence Apache 2.0.

Découvrez QwQ-32B, le modèle de raisonnement open source d'Alibaba Cloud. Optimisé pour les mathématiques et la logique, il redéfinit les performances des LLM en 2025.

Découvrez GPT-4.5, le modèle le plus avancé d'OpenAI, optimisé pour l'EQ et la réduction des hallucinations avec un contexte de 1 million de tokens.

Anthropic dévoile Claude 3.7 Sonnet avec un contexte 200K et un raisonnement hybride optimisé pour les ingénieurs.

Phi-4-Mini de Microsoft, publié le 18 février 2025, est un modèle dense de 3.8B surpassant les concurrents deux fois plus gros avec un contexte de 128K.

xAI dévoile Grok 3 le 17 février 2025. Entraîné sur le supercluster Colossus, ce modèle promet un raisonnement supérieur. Découvrez les spécifications techniques, les prix API et les benchmarks.

Découvrez DeepSeek R1, le modèle 671B MoE open source qui rivalise avec o1 et redéfinit les standards du raisonnement IA.