L’API Gemini, MCP, Jules, Antigravity et Project Mariner
Vous avez utilisé Gemini via l’interface web et Workspace. Cet article passe de l’autre côté du rideau : l’API qui propulse les workflows agentiques à l’échelle entreprise, le support MCP natif qui connecte Gemini à n’importe quelle source de données, Jules qui crée des pull requests pendant que vous dormez, Antigravity qui réinvente l’IDE, Gemini CLI avec plus de 96 000 étoiles GitHub, et Project Mariner qui contrôle le navigateur. Le volet développeur complet de l’écosystème Google AI, avec toutes les annonces fraîches de Cloud Next 2026.
À Cloud Next 2026, Thomas Kurian a renommé Vertex AI en Gemini Enterprise Agent Platform, avec un Model Garden de 200+ modèles, le protocole A2A v1.2 en production chez 150 organisations, et l’ADK v1.0 stable sur quatre langages. Au-dessus de cette couche infrastructure, une suite développeur complète : API, CLI, IDE, agent de code asynchrone, agent navigateur. Cet article couvre chaque pièce avec les annonces fraîches du 22 avril.
Cet article est plus technique que les précédents. Il s’adresse aux développeurs, aux CTOs, et aux profils techniques qui veulent construire avec Gemini, pas seulement l’utiliser.
L’API Gemini, Vertex AI (maintenant Gemini Enterprise Agent Platform), Gemini CLI, Antigravity et les serveurs MCP managés Google sont disponibles en France. Jules est en bêta avec support officiel en anglais uniquement, mais accessible depuis la France. Project Mariner reste réservé aux abonnés AI Ultra aux États-Unis — seule restriction géographique de ce guide. La résidence des données en Europe est disponible via Vertex AI pour les entreprises soumises à des contraintes RGPD.
L’API Gemini : modèles, pricing et context window
L’API Gemini est accessible via Google AI Studio (prototypage) et la Gemini Enterprise Agent Platform (ex-Vertex AI, pour la production entreprise). Les modèles sont identiques dans les deux environnements ; seuls le pricing, les quotas et les fonctionnalités entreprise (VPC, IAM, audit, résidence des données) diffèrent.
| Modèle | Input (≤200k) | Output | Input (>200k) | Contexte |
|---|---|---|---|---|
| Gemini 3.1 Pro (preview) | 2,00 $/M tokens | 12,00 $/M (≤200k) | 4,00 $/M | 1M tokens |
| Gemini 3 Pro | 2,00 $/M | 12,00 $/M | 4,00 $/M | 1M tokens |
| Gemini 3 Flash | ~0,30 $/M | ~2,50 $/M | — | 1M tokens |
| Gemini 3.1 Flash-Lite (preview) | Le plus cost-efficient | Faible latence | — | 1M tokens |
Le point clé du pricing : le coût double au-delà de 200k tokens de contexte pour les modèles Pro (output passe à 18 $/M au-dessus de 200k pour Gemini 3.1 Pro). Un pipeline RAG qui inclut de gros documents peut silencieusement pousser chaque requête dans la tranche supérieure. Le routing entre modèles — envoyer les requêtes simples vers Flash-Lite et réserver Pro pour le raisonnement complexe — est la source principale d’économies.
Le Batch API offre 50 % de réduction sur tous les modèles Gemini 3 pour le traitement asynchrone sous 24 heures. Pour les volumes importants de classification, d’extraction ou de résumé, c’est souvent le meilleur rapport qualité-prix. Sessions et Memory Bank sont GA depuis le 28 janvier 2026 (facturation active).
Dates de retirement à connaître
Les modèles Gemini 2.5 Pro, 2.5 Flash et 2.5 Flash-Lite seront retirés le 16 octobre 2026. Gemini 2.0 Flash et 2.0 Flash-Lite seront retirés le 1er juin 2026. Planifiez les migrations vers Gemini 3.1 Pro ou 3.1 Flash-Lite selon vos cas d’usage. Les modèles Imagen et Veo GA anciens sont également en retirement — migration vers gemini-2.5-flash-image et Veo 3.1 recommandée avant le 30 juin 2026.
Nouveaux modèles API avril 2026
- Gemini 3.1 Flash-Lite preview — Premier Flash-Lite de la série Gemini 3. Modèle le plus économique, optimisé pour la basse latence et les volumes élevés.
- Gemini 3.1 Flash Image (Nano Banana 2) — Image generation en public preview, meilleur pricing et latence.
- Gemini 3.1 Flash TTS preview — Text-to-speech avec emotion tags, contrôle du pacing, des accents et des pauses dramatiques.
- Veo 3.1 Lite — Modèle vidéo à moins de 50 % du coût de Veo 3.1 Fast pour les applications high-volume.
- Gemini Embedding 2 — Premier modèle d’embedding nativement multimodal de Google. Texte, images, vidéo, audio et documents dans un même espace d’embedding.
- Deep Research preview 04-2026 — Deux versions : deep-research-preview-04-2026 (vitesse, streaming UI) et deep-research-max-preview-04-2026 (comprehensiveness maximale). Planification collaborative, intégration MCP, File Search.
- Gemini Robotics-ER 1.6 preview — Modèle robotics mis à jour avec lecture d’instruments et raisonnement spatial amélioré.
- Computer Use dans l’API — Support pour gemini-3-pro-preview et gemini-3-flash-preview. Les développeurs peuvent construire des agents Mariner-like directement depuis leur code.
Fonctionnalités API notables
- Function calling — Gemini peut appeler des fonctions que vous définissez, recevoir les résultats, et les intégrer dans sa réponse. Les modèles Gemini 3 utilisent un processus de « thinking » interne qui améliore la sélection de fonctions et de paramètres. Endpoint dédié gemini-3.1-pro-preview-customtools pour les utilisateurs mixant bash et tools custom.
- Structured output — Spécifiez un schéma JSON, et Gemini le respecte. Essentiel pour l’extraction de données et l’intégration avec des systèmes existants.
- Multimodal natif — Texte, images, vidéo, audio et PDF dans le même appel API. Support Cloud Storage buckets et URLs pré-signées comme sources, file size jusqu’à 100 Mo.
- Grounding — Connectez les réponses à Google Search ou Google Maps pour ancrer les résultats dans des données vérifiées en temps réel.
- Thinking levels — Gemini 3 introduit des niveaux de raisonnement (Minimal, Low, Medium, High) configurables par requête. Plus de raisonnement = meilleure qualité mais latence accrue. Détails dans notre guide prompt engineering.
Support MCP natif : Gemini parle le protocole universel
L’API et le SDK Gemini supportent nativement le Model Context Protocol (MCP), le standard ouvert pour connecter les modèles IA à des sources de données et outils externes. Vous pouvez combiner des connecteurs MCP et le function calling natif de Gemini dans une seule requête API. Google a adopté MCP à travers ses services en décembre 2025 et l’a étendu massivement à Cloud Next 2026.
Serveurs MCP managés par Google
Google propose des serveurs MCP entièrement managés pour ses services :
- Google Maps — Données géospatiales, lieux, itinéraires, météo.
- BigQuery — Requêtes SQL, schémas, forecasting.
- Compute Engine — Gestion de VMs.
- Google Kubernetes Engine — Gestion de clusters K8s.
- Cloud Storage — Nouveau avec Smart Storage, analyse automatique des données non structurées et génération de métadonnées contextuelles.
- À venir dans les prochaines semaines : Cloud Run, Spanner, Looker, Pub/Sub. Google Storage Intelligence avec des requêtes plus raffinées arrive dans les prochains mois.
Apigee comme bridge MCP universel
Annoncé à Cloud Next 2026 : Apigee, la plateforme de gestion d’API de Google, fonctionne maintenant comme bridge MCP. Elle traduit n’importe quelle API REST standard en outil agent découvrable, avec les contrôles de sécurité et de gouvernance Apigee existants. Concrètement : vos APIs internes deviennent instantanément utilisables par des agents sans écrire de serveur MCP custom.
Workspace MCP Server est en preview pour exposer Gmail, Calendar, Docs, Sheets et Drive à des agents tiers via MCP.
L’intérêt par rapport aux serveurs MCP communautaires : fiabilité, sécurité entreprise (IAM, VPC Service Controls, audit logs), et pas de maintenance côté développeur. Vous pointez votre agent vers un endpoint Google, et il a accès aux données, avec les mêmes contrôles que le reste de votre infrastructure Google Cloud.
MCP dans Gemini CLI
Gemini CLI supporte les serveurs MCP via la configuration settings.json. Vous pouvez connecter des serveurs locaux (stdio) ou distants (HTTP/SSE) et les utiliser comme outils supplémentaires dans vos sessions CLI. Les commandes /mcp affichent les outils, ressources et prompts disponibles. Le CLI gère automatiquement la sanitisation des variables d’environnement pour protéger vos credentials.
# Configuration MCP dans Gemini CLI (settings.json)
{
"mcpServers": {
"bigquery": {
"type": "url",
"url": "https://mcp.googleapis.com/bigquery",
"trust": true
},
"mon-serveur-custom": {
"type": "stdio",
"command": "npx",
"args": ["-y", "mon-package-mcp"],
"env": {
"API_KEY": "votre-cle"
}
}
}
}
A2A v1.2 : le protocole d’orchestration entre agents
Annonce majeure de Cloud Next 2026 : le protocole Agent2Agent (A2A) a atteint la version 1.2, avec 150 organisations en production (pas en pilote). Il est maintenant gouverné par la Linux Foundation via l’Agentic AI Foundation. Les agent cards signés utilisent des signatures cryptographiques pour la vérification de domaine.
A2A est complémentaire à MCP. MCP gère comment un agent se connecte à des outils et sources de données. A2A gère comment des agents communiquent entre eux à travers organisations et plateformes. Un agent built on Agentforce peut passer une tâche à un agent Gemini, qui peut interroger un agent ServiceNow, tout via A2A — sans qu’aucun des trois systèmes n’ait besoin de comprendre l’architecture interne des autres.
Support A2A natif intégré dans : Agent Development Kit (Google), LangGraph, CrewAI, LlamaIndex Agents, Semantic Kernel, AutoGen.
ADK v1.0 : le kit de développement d’agents stable
L’Agent Development Kit open-source de Google a atteint la version 1.0 stable sur quatre langages à Cloud Next 2026 : Python, Go, Java, TypeScript. L’ADK gère la définition d’agents, le routing de modèles, l’intégration MCP, la persistance de sessions, et la communication A2A.
Nouveautés Cloud Next : Agent Designer (builder low-code pour créer des agents sans écrire tout le code), Inbox for managing agents (interface centralisée pour gérer les agents en production), et une intégration native avec la Gemini Enterprise Agent Platform.
Le Model Garden propose désormais 200+ modèles, dont Claude, Llama, DeepSeek-V3.2, et GLM 5 en expérimental (orienté systems engineering et tâches agentiques long-horizon). Vous pouvez mixer les modèles dans un même workflow selon les besoins.
Jules : l’agent de code asynchrone
Jules est l’agent de code autonome de Google. Vous lui assignez une tâche via GitHub (bug fix, refactoring, implémentation de feature, écriture de tests), et il travaille de façon asynchrone : il clone votre repository dans une VM cloud, analyse le code avec Gemini 3 Pro, développe un plan, exécute les modifications, et crée une pull request. Vous relisez, approuvez et mergez.
Ce que Jules fait concrètement
Jules lit les descriptions d’issues GitHub, comprend l’intention, explore le codebase, et produit des changements ciblés avec un diff que vous pouvez inspecter. Il ne se contente pas de générer du code — il l’exécute, teste, et corrige les erreurs avant de soumettre. Pour les tâches de maintenance (corrections de bugs, mises à jour de dépendances, refactoring), Jules élimine le travail répétitif qui consomme le temps des développeurs seniors.
Plans et limites
| Plan Jules | Tâches/jour | Concurrence | Modèle |
|---|---|---|---|
| Free | Limité | 1 | Gemini 3 Pro |
| AI Pro (inclus) | 100 | 15 | Gemini 3 Pro |
| AI Ultra (inclus) | 20x les limites Pro | Multi-agent | Gemini 3 Pro (priorité) |
Jules est en bêta. L’anglais est la seule langue officiellement supportée. La capacité est soumise à la disponibilité des ressources, pas garantie aux heures de pointe.
Antigravity : l’IDE agent-first
Antigravity est la plateforme de développement agentique de Google, lancée en décembre 2025. Ce n’est pas un éditeur de code avec un chatbot greffé — c’est un IDE conçu autour de l’agent, pas l’inverse.
Le concept : l’agent au centre
Dans un IDE classique, l’IA est un assistant dans un panneau latéral. Dans Antigravity, l’agent est le pilote. Il explore le codebase, planifie les tâches, exécute les modifications, ouvre un navigateur pour tester, et présente ses résultats sous forme d’« artifacts » — plans, diagrammes, captures d’écran, diffs — que vous validez ou commentez comme dans un Google Doc.
Antigravity propose deux surfaces : un mode « Editor » classique (IDE + agent latéral) et un mode « Manager » agent-first (l’agent est au centre, l’IDE est intégré dans l’agent). Le feedback que vous donnez est automatiquement intégré dans les exécutions futures — l’agent apprend de vos corrections.
Multi-modèles via Model Garden
Antigravity ne se limite pas à Gemini. La plateforme s’appuie sur le Model Garden de Google et ses 200+ modèles disponibles. Vous choisissez le moteur qui correspond à votre tâche : Gemini 3.1 Pro pour le raisonnement profond, Gemini 3 Flash pour les actions rapides, ou des modèles partenaires intégrés via la plateforme. Ce choix signale l’approche interopérable de Google plutôt qu’un lock-in.
Disponibilité : gratuit en preview publique sur Mac, Windows et Linux. Les crédits Antigravity sont distincts des crédits IA Google — ils mesurent la consommation de tokens dans l’IDE.
Jules pour les tâches asynchrones sur GitHub (bugs, refactoring, tests) — vous lui assignez un travail et il livre une PR. Gemini CLI pour les tâches rapides dans le terminal — debug, génération de scripts, exploration de code. Gemini Code Assist pour l’autocomplétion en temps réel dans VS Code ou JetBrains. Antigravity pour les projets complexes qui nécessitent un agent autonome avec vision du navigateur et planification multi-étapes. Tous utilisent Gemini 3 Pro. Aucun ne remplace les autres.
Gemini CLI : l’agent dans le terminal
Gemini CLI est un outil en ligne de commande open-source (Apache 2.0) qui amène Gemini directement dans votre terminal. Plus de 96 000 étoiles sur GitHub — un des projets développeur IA les plus populaires de 2026. Vous posez une question, demandez un debug, générez un script, ou lancez une analyse de code — et Gemini répond dans le terminal avec la capacité d’exécuter des commandes, de lire et modifier des fichiers, et de naviguer sur le web via un loop ReAct (Reason + Act).
Tier gratuit généreux
Avec un compte Google personnel : 60 requêtes par minute, 1 000 requêtes par jour, accès à Gemini 3 avec contexte 1M tokens, grounding Google Search, opérations sur fichiers, commandes shell, web fetch. C’est le tier gratuit le plus généreux du marché développeur. Le routing automatique (Flash pour les tâches simples, Pro pour le raisonnement complexe) s’applique aussi dans le CLI. Vous pouvez forcer un modèle spécifique via le sélecteur /model.
Le CLI supporte les serveurs MCP, les extensions, le fichier GEMINI.md pour des instructions projet, les hooks custom, les subagents spécialisés, et un mode sandboxing pour isoler l’exécution d’outils. Node.js 20+ requis.
# Installation et exemples d'utilisation de Gemini CLI
# Installation officielle (package @google/gemini-cli)
npm install -g @google/gemini-cli
# Version sans installation
npx @google/gemini-cli
# Authentification (choix 1 : compte Google personnel)
gemini # OAuth au premier lancement
# Authentification (choix 2 : clé API)
export GOOGLE_API_KEY="votre-cle"
gemini
# Debug rapide
gemini "Explique cette erreur et propose un fix" < error.log
# Analyse d'un repository
gemini "Analyse l'architecture de ce projet et identifie
les dépendances circulaires"
# Génération avec contexte projet
# (GEMINI.md dans la racine du projet contient les conventions)
gemini "Crée un endpoint REST pour la gestion des utilisateurs
en respectant les conventions du projet"
# Avec MCP — requête BigQuery
gemini "Quels sont les 10 produits les plus vendus
ce trimestre d'après notre base BigQuery ?"
Project Mariner : l'agent qui contrôle le navigateur
Project Mariner est l'agent de navigation web de Google DeepMind. Il observe votre navigateur visuellement (comme un humain, pas en parsant le DOM), planifie les étapes nécessaires, et exécute les actions : clics, saisie de formulaires, navigation entre pages, défilement, sélection. Le tout avec validation humaine avant les actions critiques (paiements, envois).
Le cycle Observe-Plan-Act
Mariner utilise une approche « vision-first » : il prend des captures d'écran du navigateur, les analyse avec Gemini, comprend la structure de la page, et décide des actions. Cette approche le rend résistant aux changements de design des sites web — les scripts d'automatisation classiques cassent dès qu'un bouton est déplacé, Mariner continue.
Les capacités Computer Use de Project Mariner sont disponibles dans l'API via les modèles Gemini 3 Pro et 3 Flash (preview). Les développeurs construisent des agents qui naviguent sur le web de façon autonome, directement depuis leur code.
Disponibilité
L'usage de Project Mariner en tant que produit est réservé aux abonnés AI Ultra aux États-Unis (249,99 $/mois). Il permet jusqu'à 10 tâches simultanées dans des sessions de navigateur isolées. Les capacités agentiques alimentent aussi AI Mode dans Google Search (réservation de restaurants, achat de billets) — ces fonctionnalités sont accessibles à un public plus large via Search.
Pour les développeurs, l'accès à Computer Use via l'API Gemini ouvre la porte à des agents web personnalisés. Combiné avec le Universal Commerce Protocol (UCP) annoncé à Cloud Next 2026 (compatible A2A, AP2 et MCP), les agents peuvent effectuer des transactions marchandes standardisées avec Shopify, Etsy, Wayfair, Target, et les partenaires du protocole.
Gemini Enterprise Agent Platform : l'échelle entreprise
Renommée à Cloud Next 2026 (anciennement Vertex AI), la Gemini Enterprise Agent Platform est la couche entreprise de l'écosystème. Elle ajoute au-dessus de l'API Gemini : des quotas dédiés (pas de partage avec les autres utilisateurs), la résidence des données par région (y compris Europe pour le RGPD), des contrôles IAM granulaires, le support VPC-SC, les logs d'audit, la facturation centralisée, et l'accès aux 200+ modèles du Model Garden.
Nouveautés Cloud Next : Managed Lustre (bande passante 10x, jusqu'à 10 TBps), Object Storage Rapid tier (sub-milliseconde via Colossus), Smart Storage avec serveur MCP managé et Knowledge Catalog contextuel, cross-cloud data lakehouse (fédération sans copie des données), Comments to SQL dans BigQuery (requêtes en langage naturel).
Pour les entreprises qui construisent des produits sur Gemini, la Gemini Enterprise Agent Platform est le chemin de production recommandé.
Par où commencer en tant que développeur
npm install -g @google/gemini-cli (Node.js 20+ requis). Lancez la commande gemini, authentifiez-vous avec votre compte Google, et le tier gratuit vous donne 60 requêtes/min et 1 000 requêtes/jour. Point d'entrée le plus rapide pour évaluer Gemini en mode développeur.
Allez sur aistudio.google.com. Testez les modèles avec vos propres prompts en appliquant les techniques de prompt engineering Gemini. Utilisez le function calling et le structured output. Exportez le code en Python ou Node.js quand votre prompt est validé.
Ajoutez un serveur MCP à votre CLI ou votre application. Commencez par un serveur managé Google (BigQuery, Maps, Cloud Storage) — fiabilité et sécurité entreprise incluses. Testez le function calling combiné avec les outils MCP. Pour exposer vos APIs internes, utilisez Apigee comme bridge MCP.
Connectez Jules à un de vos repos GitHub. Choisissez un bug ou une tâche de refactoring simple. Observez le plan que Jules produit, le diff qu'il crée, et la PR qu'il soumet. Évaluez la qualité avant de lui confier des tâches plus complexes.
Téléchargez Antigravity (gratuit en preview). Ouvrez un projet existant. Donnez à l'agent une tâche de migration ou de restructuration. Observez le cycle artifacts → feedback → itération. Testez les deux modes (Editor et Manager) pour trouver celui qui correspond à votre workflow.
Ce que l'écosystème développeur change — et la suite
L'écosystème développeur de Google forme désormais une pile verticale complète : infrastructure (Gemini Enterprise Agent Platform, TPU, Managed Lustre), modèles (Model Garden 200+, Gemini 3.1 Pro / Flash / Flash-Lite, Embedding 2, Veo 3.1, Lyria 3 Pro), protocoles (MCP natif, A2A v1.2, UCP), kit développeur (ADK v1.0 stable, Agent Designer, Inbox), outils quotidiens (Gemini CLI, Code Assist, Jules, Antigravity), agents (Mariner, Computer Use dans l'API). Le tout avec un tier gratuit généreux et la Linux Foundation qui gouverne A2A pour l'interopérabilité.
Les limites sont celles d'un écosystème en construction rapide : Jules est en bêta avec des résultats inégaux, Antigravity a des retours mitigés sur la vitesse de génération, Mariner est réservé à Ultra US-only et encore expérimental, et le nombre d'outils Google (Jules, CLI, Code Assist, Antigravity, Firebase Studio) crée une confusion sur lequel utiliser quand. Les retirements successifs (Gemini 2.5 le 16 octobre 2026, modèles 2.0 le 1er juin 2026) imposent une veille active sur les migrations.
Dans le prochain et dernier article de cette série, on assemble toutes les pièces : construire son système Gemini — la méthode complète. Gems + Workspace + NotebookLM + Drive + Deep Research + Live + API. Setups par métier pour les équipes 100 % Google. L'architecture complète d'un workflow piloté par Gemini.
Vous connaissez toutes les pièces de l'écosystème Gemini. Le dernier chapitre de cette série assemble le puzzle : workflows par métier, silos de connaissance, automatisations API, setups clé en main. La méthode complète pour construire votre système Gemini.