Skip to content
Retour au Blog
Model Releases

Gemini 2.5 Pro (06-05) : L'Ère du Raisonnement Agentic et du Code

Google DeepMind lance une version améliorée de son modèle multimodal le plus puissant, optimisée pour le code et le raisonnement complexe.

5 juin 2025
Model ReleaseGemini 2.5 Pro (06-05)
Gemini 2.5 Pro (06-05) - official image

Introduction

Le 5 juin 2025, Google DeepMind a officiellement annoncé la sortie de la version Preview 06-05 de Gemini 2.5 Pro. Ce modèle marque une étape cruciale dans l'évolution des capacités d'IA générative, se positionnant comme le successeur direct des architectures 2.0 et 2.1. Conçu spécifiquement pour l'ère agentic, il vise à résoudre des problèmes complexes qui dépassent les limites des modèles conversationnels standards.

Cette release n'est pas seulement une mise à jour incrémentale, mais une refonte des capacités de raisonnement et de compréhension multimodale. Les ingénieurs et les développeurs s'attendent à une amélioration significative dans la gestion du contexte et l'exécution de code autonome. Cependant, il est important de noter que le rapport sur les risques de sécurité publié quelques semaines après la sortie a été qualifié d'insuffisant par des experts en gouvernance, soulignant la nécessité de vigilance malgré les performances techniques impressionnantes.

  • Date de sortie : 2025-06-05
  • Fournisseur : Google DeepMind
  • Statut : Preview (Non open source)
  • Catégorie : Multimodal et Raisonnement

Caractéristiques Clés & Architecture

L'architecture sous-jacente de Gemini 2.5 Pro intègre des améliorations majeures dans le traitement des données. Le modèle dispose d'une fenêtre de contexte massive de 1 million de tokens, permettant l'analyse de documents longs, de vidéos entières ou de bases de données techniques sans perte d'information contextuelle. Cette capacité est rendue possible par une optimisation de la mémoire et des algorithmes de compression attentionnelle avancés.

En termes de multimodalité, le modèle comprend nativement le texte, les images, la vidéo et l'audio avec une précision accrue. La fonctionnalité 'Thinking Preview' permet au modèle de simuler des étapes de raisonnement avant de générer une réponse finale, augmentant ainsi la fiabilité sur les tâches logiques complexes. L'architecture Mixture of Experts (MoE) est utilisée pour activer uniquement les sous-réseaux pertinents selon la complexité de la requête, optimisant ainsi l'efficacité énergétique et le coût d'inférence.

  • Fenêtre de contexte : 1M tokens
  • Capacités : Texte, Image, Vidéo, Audio
  • Fonctionnalité : Thinking Preview
  • Architecture : Mixture of Experts (MoE)

Performance & Benchmarks

Les performances de Gemini 2.5 Pro sur les benchmarks de pointe sont significativement supérieures à celles des versions précédentes. Sur les tests de raisonnement mathématique et logique, le modèle atteint des scores SOTA (State of the Art), dépassant les concurrents directs sur des tâches d'inférence complexe. Les développeurs rapportent une réduction des erreurs de logique de plus de 40% par rapport à la version 2.0 lors de l'intégration dans des pipelines CI/CD.

La performance en codage est également une priorité absolue pour cette release. Sur le benchmark HumanEval, le modèle obtient un score de 92%, tandis que sur SWE-bench, il résout environ 35% des issues complexes sans assistance humaine directe. Ces chiffres sont doubles par rapport à la génération précédente, validant l'efficacité des mises à jour dédiées à l'IA pour le développement logiciel.

  • HumanEval Score : ~92%
  • SWE-bench : ~35% résolution autonome
  • ARC-AGI-2 : Amélioration significative
  • Réduction d'erreur logique : >40%

Tarification API

Pour les entreprises et les développeurs, la tarification de Gemini 2.5 Pro via Vertex AI est compétitive compte tenu de ses capacités. Le coût d'entrée est fixé à 3,50 dollars par million de tokens, tandis que le coût de sortie est de 10,50 dollars par million de tokens. Cette structure de prix est conçue pour encourager l'adoption intensive dans les applications à haute charge de calcul, comme les agents autonomes ou l'analyse de documents volumineux.

Il n'y a pas de niveau gratuit pour l'accès API direct au modèle Pro, mais un accès limité est disponible via le studio de développement pour les tests préliminaires. Les utilisateurs doivent surveiller les limites de quota quotidiennes, qui sont plus élevées pour les comptes vérifiés. La facturation est basée sur la consommation réelle, ce qui permet une optimisation fine des coûts selon la complexité des requêtes soumises.

  • Prix Input : $3.50 / M tokens
  • Prix Output : $10.50 / M tokens
  • Fenêtre Contexte : 1M tokens
  • Accès : Vertex AI uniquement

Tableau Comparatif

Lors de la comparaison directe avec les leaders du marché, Gemini 2.5 Pro se distingue par son contexte massif et son focus sur le raisonnement agentic. Claude 3.5 Sonnet offre une fenêtre de contexte de 200K tokens, ce qui est inférieur à 1M, mais reste compétitif pour la plupart des cas d'usage. GPT-4o, bien que très rapide, est limité à 128K tokens et a des capacités de raisonnement légèrement inférieures sur les tâches scientifiques complexes.

Le tableau ci-dessous résume les métriques clés pour aider à choisir le modèle adapté à votre infrastructure. Gemini 2.5 Pro est idéal pour les tâches nécessitant une analyse profonde de longs documents ou de codebases entières, tandis que les autres modèles peuvent suffire pour des interactions conversationnelles courtes ou des tâches multimodales simples.

  • Meilleur contexte : Gemini 2.5 Pro
  • Meilleur coût : Claude 3.5 Sonnet
  • Meilleure vitesse : GPT-4o
  • Meilleur code : Gemini 2.5 Pro

Cas d'Usage

Les cas d'usage les plus pertinents pour Gemini 2.5 Pro incluent le développement logiciel assisté par IA, où le modèle peut générer, déboguer et expliquer du code à grande échelle. Les agents autonomes peuvent utiliser cette capacité pour naviguer dans des systèmes d'exploitation ou des environnements de test sans supervision humaine constante. Cela ouvre la voie à des applications de maintenance automatisée et de refactoring de code legacy.

Dans le domaine de l'analyse de données, le modèle excelle dans la RAG (Retrieval Augmented Generation) grâce à sa grande fenêtre de contexte. Il peut ingérer des rapports financiers complets, des logs système ou des jeux de données brutes pour en extraire des insights précis. Les chercheurs en sciences cognitives peuvent également l'utiliser pour analyser des corpus textuels massifs sans subir de perte de contexte.

  • Développement logiciel autonome
  • Agents autonomes (Agentic Workflows)
  • RAG sur documents longs
  • Analyse de données scientifiques

Démarrage

Pour commencer à utiliser Gemini 2.5 Pro, les développeurs doivent créer un compte sur Google Cloud Platform et activer l'API Vertex AI. L'accès au modèle Preview 06-05 est disponible via le catalogue de modèles, en utilisant l'endpoint standard pour les modèles de production. Les SDK Python et Node.js sont officiellement supportés, avec des exemples de code disponibles dans le dépôt GitHub de Google DeepMind.

L'intégration se fait principalement via l'API REST ou le SDK Vertex AI. Il est recommandé de mettre en place un système de monitoring pour suivre les performances du modèle et les coûts d'inférence. La documentation technique est à jour et inclut des guides sur l'optimisation des prompts pour maximiser le raisonnement 'Thinking'.

  • Plateforme : Google Cloud Vertex AI
  • SDK : Python, Node.js
  • Endpoint : standard API
  • Documentation : DeepMind Blog

Comparison

Model: Gemini 2.5 Pro (06-05) | Context: 1M | Max Output: 8192 | Input $/M: $3.50 | Output $/M: $10.50 | Strength: Raisonnement Agentic

Model: Claude 3.5 Sonnet | Context: 200K | Max Output: 8192 | Input $/M: $3.00 | Output $/M: $15.00 | Strength: Code & Langage

Model: GPT-4o | Context: 128K | Max Output: 4096 | Input $/M: $5.00 | Output $/M: $15.00 | Strength: Multimodal

API Pricing — Input: $3.50 / Output: $10.50 / Context: 1M tokens


Sources

Gemini 2.5 Pro Preview 06-05: Pricing, Benchmarks & Performance

Google Gemini 2.5 Pro - Performance Metrics | OpenRouter

Gemini 2.5: Our newest Gemini model with thinking - The Keyword

PDF Gemini2.5:PushingtheFrontierwith AdvancedReasoning,Multimodality,Long ...