Aller au contenu
    PROMPT
    Guide IA

    Prompt engineering Gemini : ce qui change par rapport à ChatGPT et Claude

    Vous savez écrire un bon prompt. Vous donnez un rôle, un contexte, un format de sortie. Ça marche sur ChatGPT, ça marche sur Claude. Et puis vous essayez la même chose sur Gemini — et le résultat est différent. Pas mauvais, mais différent. Parce que Gemini a ses propres règles : un multimodal natif qui change la logique des prompts, un routing automatique entre modèles, et un système de Gems qui rend certains prompts inutiles. Ce guide couvre les spécificités que vous ne trouverez pas dans un tuto générique.

    Sur ChatGPT, vous écrivez un prompt. Sur Claude, vous écrivez un prompt dans un Projet. Sur Gemini, vous pouvez écrire un prompt, le dire à voix haute en montrant un objet à votre caméra, ou uploader une vidéo de 45 minutes et poser des questions dessus. Le même mot — « prompt » — recouvre des réalités très différentes selon l’outil.

    La conséquence pratique : les techniques de prompt engineering qui fonctionnent sur un outil ne se transposent pas toujours directement sur un autre. Gemini a des forces spécifiques (le multimodal, la grande fenêtre de contexte, les Gems) et des particularités techniques (le routing, le comportement du mode « thinking », la gestion des contraintes négatives) qui justifient un guide dédié.

    Les System Instructions : votre prompt permanent

    Gemini offre deux niveaux d’instructions persistantes qui changent le comportement du modèle avant même que vous écriviez quoi que ce soit.

    Instructions générales (Settings)

    Dans les paramètres de Gemini (Settings → Instructions for Gemini), vous définissez qui vous êtes, votre métier, vos préférences de ton et de format. Ces instructions s’appliquent à toutes vos conversations. C’est l’équivalent des « Custom Instructions » de ChatGPT, mais avec une différence : Gemini vous propose d’importer directement vos préférences depuis un autre assistant IA. Vous collez un résumé exporté de ChatGPT ou Claude, et Gemini l’intègre.

    L’erreur la plus courante : y mettre trop de texte. Les instructions générales doivent tenir en moins de 500 mots. Au-delà, le modèle commence à ignorer les contraintes les moins saillantes — un phénomène documenté que Google appelle « attention dilution ».

    Instructions de Gem (par tâche)

    Les Gems sont des assistants personnalisés avec leurs propres instructions, fichiers de référence et outils par défaut. Contrairement aux instructions générales, un Gem ne s’applique que quand vous l’ouvrez. Vous pouvez en créer autant que nécessaire : un pour la rédaction, un pour l’analyse financière, un pour le debug de code.

    La bonne pratique selon la documentation de Google : traiter les instructions d’un Gem comme un programme, pas comme une conversation. Le framework RTCFE (Role, Task, Context, Format, Example) fonctionne bien. Le rôle définit l’expertise, la tâche dit quoi faire, le contexte donne les contraintes métier, le format spécifie la sortie attendue, et l’exemple montre un cas concret.

    # Gem — Analyste de rapports annuels
    
    Rôle : Tu es un analyste financier senior spécialisé dans
    les sociétés cotées européennes.
    
    Tâche : Quand je te donne un rapport annuel (PDF ou texte),
    produis une analyse structurée.
    
    Contexte : Je suis directeur financier d'un fonds
    d'investissement mid-cap. J'ai besoin d'identifier les
    risques non évidents et les incohérences entre le discours
    du management et les chiffres.
    
    Format de sortie :
    1. Résumé exécutif (5 phrases max)
    2. Tableau : CA, EBITDA, dette nette, FCF (3 derniers exercices)
    3. 3 signaux d'alerte (avec numéro de page source)
    4. 2 questions à poser au management
    5. Verdict : acheter / conserver / éviter — avec justification
    
    Exemple de signal d'alerte : "Le rapport mentionne une
    croissance organique de 8%, mais le détail par segment
    (p.47) montre que 6 points viennent d'un effet de change
    favorable non récurrent."
    
    Règle : si une donnée n'est pas dans le document, écris
    "[donnée absente]". Ne jamais inventer un chiffre.

    Ce Gem, une fois créé, transforme chaque upload de PDF en une analyse structurée en 30 secondes. Vous n’écrivez plus un seul prompt — vous uploadez et vous lisez.

    Le multimodal natif : penser au-delà du texte

    Gemini accepte en entrée du texte, des images, de la vidéo et de l’audio dans le même prompt. Ce n’est pas un ajout cosmétique — ça change fondamentalement la façon de formuler une demande.

    Images : extraction avant interprétation

    Quand vous envoyez une image à Gemini, la meilleure approche est de demander d’abord une extraction factuelle (ce que l’image contient), puis une interprétation. Si vous sautez l’extraction et demandez directement une analyse, le modèle peut « sauter à la conclusion » et inventer des détails qui ne sont pas dans l’image.

    # Prompt multimodal — analyse d'image en deux temps
    
    [Image uploadée : capture d'écran d'un dashboard Google Analytics]
    
    Étape 1 : Décris factuellement ce que tu vois dans cette
    capture d'écran. Liste tous les chiffres, libellés, axes
    et légendes visibles.
    
    Étape 2 : À partir de cette description, identifie les
    3 tendances les plus significatives et propose 2 actions
    concrètes pour améliorer le trafic organique.

    Vidéo : timestamps et questions ciblées

    Gemini peut traiter des vidéos longues (jusqu’à 45 minutes dans l’app, plus via l’API). La clé : ne pas demander « résume cette vidéo ». Posez des questions précises ou demandez une extraction par timestamp. « À quel moment le présentateur mentionne le changement de pricing ? Que dit-il exactement ? » donne un résultat bien meilleur qu’un résumé générique.

    Audio : le prompt conversationnel

    Gemini Live permet des échanges vocaux naturels avec le modèle 3.1 Pro. Depuis mars 2026, les conversations conservent deux fois plus de contexte. Vous pouvez montrer un objet à votre caméra en parlant — le modèle intègre les deux flux. Pour le prompt engineering vocal, la règle est simple : soyez aussi spécifique à l’oral qu’à l’écrit. « Qu’est-ce que tu penses de ça ? » donne un résultat vague. « Est-ce que cette pièce semble être un composant original pour une Fender Stratocaster des années 60 ? » donne un résultat utile.

    Le routing automatique Flash → Pro : comment il influence vos résultats

    Quand vous utilisez Gemini en mode « Auto », le système décide quel modèle traite votre requête. Les tâches simples (traduction, résumé court, question factuelle) sont envoyées à Flash. Les tâches complexes (analyse multi-étapes, raisonnement, code) sont envoyées à Pro. Vous ne choisissez pas — le routing décide pour vous.

    Pourquoi c’est important pour le prompting : un prompt court et simple a de bonnes chances d’être traité par Flash. Si vous avez besoin de la qualité Pro, deux options :

    • Sélectionnez manuellement le modèle — Dans l’interface Gemini, cliquez sur le sélecteur de modèle et choisissez « 3.1 Pro » au lieu de « Auto ». Ça force l’utilisation du modèle le plus puissant, quelles que soient vos limites.
    • Rendez votre prompt suffisamment complexe — Si vous restez en Auto, structurez votre demande avec plusieurs étapes, des contraintes explicites et un format de sortie détaillé. Le router interprète la complexité du prompt pour décider du modèle.
    Flash n’est pas « mauvais »

    Gemini 3 Flash a considérablement progressé. Pour les tâches courantes (brouillons, résumés, questions-réponses), il rivalise avec ce que Pro faisait il y a six mois — et répond en une à deux secondes. Le routing n’est pas un piège. C’est une optimisation. La question n’est pas « Flash ou Pro ? » mais « est-ce que cette tâche précise a besoin de la profondeur de raisonnement de Pro ? »

    Les spécificités de Gemini 3 en prompting

    Le guide officiel de Google pour Gemini 3 révèle plusieurs comportements spécifiques que les autres LLM ne partagent pas. Les connaître évite des frustrations inutiles.

    Les contraintes négatives sont fragiles

    « Ne fais pas X » fonctionne moins bien sur Gemini que sur Claude. Google le documente explicitement : les contraintes négatives (ce que le modèle ne doit pas faire) et les contraintes de format (longueur, structure) sont parfois ignorées si elles apparaissent trop tôt dans le prompt. La solution : placez vos restrictions à la fin de votre instruction, pas au début.

    # Mauvais — contrainte au début, souvent ignorée
    
    Ne dépasse pas 200 mots. Résume ce rapport trimestriel
    en identifiant les 3 points clés.
    
    # Bon — contrainte à la fin, mieux respectée
    
    Résume ce rapport trimestriel en identifiant les 3 points clés.
    Contrainte stricte : ta réponse ne doit pas dépasser 200 mots.

    Évitez les instructions négatives larges

    « Ne déduis rien » ou « ne fais aucune supposition » paralyse le modèle. Gemini l’interprète trop littéralement et refuse ensuite de faire des calculs simples ou de synthétiser des informations évidentes. Préférez une formulation positive : « Base tes réponses uniquement sur les données fournies. Si une information manque, indique-le explicitement. »

    La température : gardez-la à 1.0

    Contrairement à ChatGPT où baisser la température à 0.2 réduit la créativité indésirable, Google recommande de laisser Gemini 3 à sa température par défaut (1.0). Le modèle a été optimisé pour ce réglage — le modifier ne donne pas les gains attendus et peut dégrader le raisonnement.

    Le persona colle fort

    Quand vous assignez un persona à Gemini (via un Gem ou une instruction système), le modèle y adhère très fortement. Google prévient : le modèle peut ignorer certaines de vos instructions ultérieures si elles contredisent le persona défini. C’est un atout (cohérence du personnage) et un piège (difficulté à « sortir du rôle »). La solution : relisez vos instructions de persona avant de vous étonner qu’une demande soit refusée.

    Structurer ses prompts pour la grande fenêtre de contexte

    La fenêtre de 1 million de tokens de Gemini est un avantage technique — mais elle ne garantit pas que le modèle lira tout avec la même attention. La recherche récente met en évidence un phénomène de « dilution d’attention » : plus le contexte est long, plus les tokens pertinents se perdent parmi les tokens non pertinents.

    Trois techniques pour contrer cette dilution :

    Séparez instructions et données

    Ne mélangez jamais vos consignes avec le contenu à analyser. Utilisez des séparateurs explicites. Les balises XML-like fonctionnent bien :

    # Structure avec séparateurs
    
    <instructions>
    Tu es un juriste spécialisé en droit du travail français.
    Analyse le document ci-dessous et identifie les clauses
    qui pourraient être contestées devant les prud'hommes.
    Pour chaque clause problématique, cite l'article du Code
    du travail concerné.
    </instructions>
    
    <document>
    [coller le contrat ici]
    </document>
    
    <format_sortie>
    Tableau : Clause | Page | Risque | Article du Code du travail
    Suivi d'un paragraphe de recommandation par clause.
    Contrainte : ne traite que les clauses effectivement
    problématiques. Si le contrat est conforme, dis-le.
    </format_sortie>

    Demandez une vérification de lecture

    Avant de lancer l’analyse d’un document long, demandez à Gemini de résumer ce qu’il a compris du document en trois phrases. Si le résumé est correct, enchaînez avec votre vraie question. Si le résumé est faux, le document n’a pas été bien ingéré — il vaut mieux le recharger ou le segmenter.

    Placez les informations critiques au début et à la fin

    Comme pour les contraintes négatives, les informations situées au milieu d’un contexte très long reçoivent moins d’attention. Placez vos données les plus importantes au début du prompt (juste après les instructions) ou à la fin (juste avant la question). Le milieu est la « zone morte » du contexte long.

    Cinq prompts Gemini prêts à copier

    Ces prompts exploitent les spécificités de Gemini — multimodal, grand contexte, Gems. Ils ne donneraient pas le même résultat sur ChatGPT ou Claude.

    # 1. Analyse vidéo avec timestamps
    
    Regarde cette vidéo de formation interne [uploadée].
    Pour chaque changement de sujet, note le timestamp
    et résume le point clé en une phrase.
    À la fin, identifie les 3 moments où le formateur dit
    quelque chose qui contredit la documentation officielle
    que je t'ai envoyée hier dans ce notebook.
    
    # 2. Comparaison de 5 documents longs
    
    Voici 5 contrats de fournisseurs [uploadés].
    Construis un tableau comparatif avec ces colonnes :
    - Durée d'engagement
    - Clause de résiliation anticipée
    - Pénalités de retard
    - Plafond de responsabilité
    - Exclusivité (oui/non)
    Indique le numéro de page pour chaque donnée.
    Si une clause est absente d'un contrat, écris "absent".
    
    # 3. Gem pour la veille concurrentielle quotidienne
    
    [À coller dans les instructions d'un Gem]
    Tu es mon analyste concurrentiel.
    Chaque matin, je te donne 2-3 URLs d'articles.
    Pour chaque article, produis :
    - Entreprise concernée
    - Fait nouveau (1 phrase)
    - Impact potentiel sur notre marché (1 phrase)
    - Action recommandée : ignorer / surveiller / réagir
    Format : tableau, pas de prose.
    
    # 4. Debug multimodal
    
    [Upload : capture d'écran d'une erreur + fichier de log]
    Voici une capture d'écran de l'erreur et le fichier de log.
    1. Lis l'erreur dans la capture.
    2. Cherche cette erreur dans le fichier de log.
    3. Identifie la ligne exacte qui a déclenché l'erreur.
    4. Propose un correctif avec le code modifié.
    
    # 5. Recherche dans vos propres données (Notebook + Gem)
    
    [Gem connecté à un Notebook contenant 50 PDF de recherche]
    Dans mes sources, que disent les études publiées après 2024
    sur l'effet du jeûne intermittent sur la masse musculaire
    chez les plus de 50 ans ?
    Cite chaque source avec son titre et la page.
    Si les études se contredisent, présente les deux positions.

    Ce qui fonctionne différemment sur Gemini, ChatGPT et Claude

    Technique de prompting Gemini ChatGPT Claude
    Balises XML dans le prompt Fonctionne, recommandé pour séparer données/instructions Fonctionne avec ### ou balises Excellent — c’est la méthode préférée
    Contraintes négatives Fragiles, placer à la fin du prompt Bien respectées Très bien respectées
    Température basse (0.2) Non recommandé — garder 1.0 Utile pour réduire la variance Utile pour les tâches factuelles
    Multimodal en entrée Natif (image, vidéo, audio, PDF) Image et audio Image et PDF
    Assistants persistants Gems (instructions + fichiers + outils) GPTs (instructions + actions + knowledge) Projects (instructions + fichiers)
    Routing automatique Oui (Flash ↔ Pro selon complexité) Oui (GPT-4o / mini) Non
    Adhérence au persona Très forte — peut ignorer d’autres instructions Modérée Forte mais modulable

    Ce que vous devez retenir — et la suite

    Gemini n’est pas « un autre ChatGPT ». Son prompt engineering a ses propres règles : le multimodal change la logique des prompts, les contraintes négatives se placent à la fin, la température reste à 1.0, le routing influence silencieusement la qualité de vos résultats, et les Gems remplacent avantageusement les prompts répétitifs.

    Deux réflexes à adopter immédiatement : créez un Gem pour votre tâche la plus fréquente (le temps investi se rentabilise dès la troisième utilisation), et séparez toujours vos instructions de vos données quand vous travaillez avec des documents longs.

    Dans le prochain article, on passe à la pratique avec Gemini dans Gmail : trier, résumer, rédiger. Comment le panneau latéral transforme la gestion de votre boîte mail, comment Personal Intelligence prépare automatiquement vos réunions, et quelles sont les limites réelles de l’assistant email de Google.

    Aller plus loin
    Tous nos guides pour maîtriser l’IA

    Retrouvez nos guides pratiques sur les LLM, le RAG, les agents IA et le prompt engineering.

    Découvrir les guides IA
    Mise à jour : avril 2026
    Étiquettes: