Aller au contenu
    PROMPT
    Guide IA

    Prompt engineering Claude : 7 techniques pour des résultats professionnels

    Vous tapez une demande dans Claude, vous obtenez une réponse correcte — mais pas exactement ce que vous vouliez. Vous reformulez. Vous précisez. Au bout de quatre échanges, le résultat est acceptable. Avec un bon prompt, vous l’auriez eu du premier coup. Ce guide vous donne les sept techniques qui fonctionnent réellement avec Claude Opus 4.6 et Sonnet 4.6 — pas de la théorie générique sur « les LLM », mais des mécanismes propres à Claude, testés, avec des exemples avant/après que vous pourrez réutiliser immédiatement.

    Un prompt, ce n’est pas une question posée à un moteur de recherche. C’est un cahier des charges miniature : vous décrivez ce que vous attendez, comment vous le voulez, dans quel contexte, et à quel niveau de qualité. La différence entre un utilisateur qui « obtient des réponses » et un professionnel qui « obtient des résultats » tient entièrement dans cette compétence. Et cette compétence n’est pas la même selon le modèle que vous utilisez. Claude Opus 4.6, Sonnet 4.6 et Haiku 4.5 réagissent chacun différemment aux mêmes instructions — parce qu’ils n’ont pas la même profondeur de raisonnement, la même sensibilité au system prompt, ni le même comportement par défaut.

    Dans le premier article de cette série, vous avez configuré Claude et compris l’écosystème. Maintenant, on entre dans le moteur. Les sept techniques qui suivent sont issues de la documentation officielle d’Anthropic (mise à jour mars 2026), croisées avec des pratiques de terrain. Chacune est accompagnée d’un exemple concret que vous pouvez copier-coller et adapter.

    Pourquoi Claude 4.6 change la donne en prompting

    Avant de plonger dans les techniques, il faut comprendre ce qui a changé avec la génération 4.6. Les modèles Claude précédents nécessitaient beaucoup de « sur-prompting » — des instructions en majuscules, des répétitions, des injonctions agressives du type « CRITICAL: You MUST use this tool ». Opus 4.6 et Sonnet 4.6 sont radicalement plus sensibles au system prompt. Un ton normal suffit. Les instructions excessives provoquent l’effet inverse : le modèle sur-réagit, déclenche des outils inutilement, ou s’embourbe dans un raisonnement disproportionné.

    Autre changement majeur : l’Adaptive Thinking. Contrairement à l’ancien système d’Extended Thinking (où vous fixiez manuellement un budget de tokens de réflexion), l’Adaptive Thinking laisse le modèle décider lui-même quand et combien il doit réfléchir. Une question simple reçoit une réponse directe. Un problème de logique complexe déclenche automatiquement une chaîne de raisonnement approfondie. Vous n’avez plus à deviner le niveau de réflexion nécessaire — Claude le calibre seul.

    Conséquence pratique : avec Claude 4.6, le prompting se simplifie. Moins de hacks, plus de clarté. Les techniques fondamentales — être précis, donner du contexte, structurer — deviennent encore plus efficaces qu’avant, parce que le modèle les interprète mieux.

    Technique 1 : être explicite, pas implicite

    La règle d’or d’Anthropic tient en une phrase : montrez votre prompt à un collègue qui ne connaît pas le projet et demandez-lui de l’exécuter. S’il est perdu, Claude le sera aussi. La précision n’est pas un luxe — c’est le levier le plus puissant dont vous disposez.

    Le réflexe naturel est d’écrire un prompt comme on parle à un collègue qui connaît déjà le contexte. « Fais-moi un résumé de ce document. » Résultat : un résumé générique, trop long ou trop court, dans un ton qui ne correspond pas. Comparez avec un prompt explicite :

    # Prompt vague
    Résume ce document.
    
    # Prompt explicite
    Résume ce document en 5 points clés, chacun en une phrase.
    Adopte le ton d'une note interne destinée à un comité de direction.
    Commence chaque point par un verbe d'action.
    Longueur totale : 150 mots maximum.

    La différence de résultat est spectaculaire — et elle ne coûte que 30 secondes de rédaction supplémentaire. Les éléments à expliciter systématiquement : le format de sortie (longueur, structure, ton), le public cible (pour qui Claude écrit), les contraintes (ce qu’il ne doit pas faire), et le résultat attendu (ce qui fait qu’une réponse est réussie ou ratée).

    Point spécifique à Claude 4.6 : les modèles actuels sont plus concis et directs par défaut que les versions précédentes. Si vous voulez un développement détaillé, demandez-le explicitement. Si vous voulez un comportement « above and beyond » — des suggestions supplémentaires, des alternatives, des mises en garde — dites-le. Claude 4.6 ne brode plus par défaut : il fait ce que vous demandez, rien de plus.

    Technique 2 : structurer avec les balises XML

    C’est la technique signature de Claude — celle qui le distingue le plus de ChatGPT ou Gemini. Claude est entraîné pour interpréter les balises XML comme des séparateurs sémantiques. Quand vous encadrez chaque type de contenu dans ses propres balises, Claude sait exactement où commence l’instruction, où finit le contexte, et ce qui est un exemple versus une consigne.

    # Structure XML pour un prompt complexe
    <role>Tu es un rédacteur web spécialisé en SEO francophone.</role>
    
    <contexte>
    Je gère un blog sur l'intelligence artificielle.
    Mon audience : professionnels non-techniques, PME, indépendants.
    Ton : expert accessible, jamais condescendant.
    </contexte>
    
    <instructions>
    Rédige une introduction de 200 mots pour un article intitulé
    "Comment choisir son outil IA en 2026".
    Commence par un scénario concret que le lecteur reconnaît.
    Termine par une promesse claire sur ce que l'article va lui apporter.
    </instructions>
    
    <contraintes>
    - Pas de formule "dans un monde où..."
    - Pas de superlatifs vides (révolutionnaire, incontournable)
    - Vocabulaire courant, phrases courtes
    </contraintes>

    Les bonnes pratiques : utilisez des noms de balises descriptifs et cohérents d’un prompt à l’autre. Imbriquez les balises quand le contenu a une hiérarchie naturelle — par exemple, plusieurs documents dans une balise <documents>, chacun dans sa propre balise <document>. Claude gère très bien l’imbrication.

    L’avantage concret des balises XML est triple : elles réduisent les ambiguïtés (Claude ne confond plus une instruction avec un exemple), elles rendent vos prompts réutilisables (il suffit de changer le contenu entre les balises), et elles améliorent la cohérence des résultats sur des tâches répétées.

    Technique 3 : donner un rôle et du contexte motivé

    Attribuer un rôle à Claude — même en une seule phrase — change le registre, le vocabulaire, le niveau de détail et la structure de sa réponse. « Tu es un analyste financier senior » ne produit pas la même réponse que « Tu es un journaliste économique ». Le rôle active un ensemble de comportements, de conventions et de références que Claude a intégrés pendant son entraînement.

    Mais ce que beaucoup d’utilisateurs ignorent, c’est que le contexte motivé est encore plus puissant que le rôle seul. Expliquer à Claude pourquoi vous avez besoin de tel format ou de tel ton améliore significativement les résultats. Claude est entraîné pour comprendre les objectifs, pas seulement les instructions.

    # Rôle seul (correct)
    Tu es un consultant en stratégie digitale.
    
    # Rôle + contexte motivé (excellent)
    Tu es un consultant en stratégie digitale qui prépare
    une recommandation pour un client PME de 50 salariés.
    Le client n'a aucune expérience en IA et a un budget limité.
    Ta recommandation doit être immédiatement actionnable :
    le client doit pouvoir commencer demain matin avec les
    outils que tu proposes, sans formation préalable.

    Le contexte motivé fonctionne parce que Claude ne se contente pas de suivre des règles — il comprend l’intention derrière la demande et adapte son jugement en conséquence. C’est la différence entre un stagiaire qui applique une checklist et un collaborateur expérimenté qui comprend l’objectif final.

    System prompt vs. prompt utilisateur : où placer quoi

    Le system prompt (instructions système, dans les Projects ou via l’API) est lu avant chaque échange. Placez-y le rôle, le ton, les règles permanentes, les contraintes de format. Le prompt utilisateur (votre message dans la conversation) contient la tâche spécifique du moment. Avec Claude Opus 4.6 et Sonnet 4.6, le system prompt est plus influent que jamais — un ton naturel y suffit, les majuscules et les « CRITICAL » sont inutiles et contre-productifs.

    Technique 4 : utiliser des exemples (few-shot prompting)

    Les exemples sont le levier le plus fiable pour contrôler le format, le ton et la structure de la sortie. Anthropic recommande 3 à 5 exemples pour des résultats optimaux. La clé : vos exemples doivent être pertinents (proches de votre cas réel), diversifiés (couvrant les cas limites), et structurés (encadrés par des balises pour que Claude ne les confonde pas avec des instructions).

    # Few-shot prompting avec balises
    Classe chaque avis client selon : Positif, Négatif, ou Mitigé.
    Extrais le sujet principal en 3 mots maximum.
    
    <examples>
      <example>
        <input>La livraison était rapide mais le produit
        ne correspond pas à la photo.</input>
        <output>Mitigé — Conformité produit</output>
      </example>
      <example>
        <input>Service client réactif, problème résolu
        en 24h. Bravo.</input>
        <output>Positif — Service client</output>
      </example>
      <example>
        <input>Impossible de joindre quelqu'un par téléphone.
        Trois semaines sans réponse à mon email.</input>
        <output>Négatif — Joignabilité support</output>
      </example>
    </examples>
    
    Maintenant, classe cet avis :
    "Le produit est excellent, par contre les frais de port
    sont excessifs pour une petite commande."

    Astuce avancée : vous pouvez demander à Claude lui-même d’évaluer vos exemples. Envoyez-lui vos 3 exemples et demandez : « Ces exemples couvrent-ils bien les cas possibles ? Quels cas limites manquent ? » Claude vous proposera des exemples supplémentaires pour combler les lacunes. C’est une boucle d’amélioration qui rend vos prompts de plus en plus robustes au fil du temps.

    Technique 5 : piloter le format de sortie

    Claude 4.6 est plus concis par défaut que les générations précédentes. Il utilise moins de markdown non sollicité, moins de listes à puces automatiques, moins de gras décoratif. C’est un progrès — mais ça signifie aussi que si vous voulez un format précis, vous devez le demander explicitement.

    La règle d’Anthropic : dites ce que vous voulez, pas ce que vous ne voulez pas. Au lieu de « Ne mets pas de bullet points », écrivez « Rédige en paragraphes fluides, sans puces ni listes. » Au lieu de « Ne fais pas trop long », précisez « 300 mots maximum. »

    Pour les formats complexes, utilisez des indicateurs de format XML. Si vous voulez que Claude produise une analyse en sections clairement séparées, encadrez chaque section attendue dans des balises :

    # Piloter le format avec des balises de sortie
    Analyse cette stratégie marketing et structure ta réponse
    exactement comme suit :
    
    <diagnostic>
    État actuel en 3 phrases maximum.
    </diagnostic>
    
    <forces>
    3 points forts, une phrase chacun.
    </forces>
    
    <faiblesses>
    3 points faibles, une phrase chacun.
    </faiblesses>
    
    <recommandation>
    Action prioritaire à mettre en place cette semaine,
    en 2 phrases.
    </recommandation>

    Autre astuce efficace : le format du prompt influence le format de la réponse. Si vous écrivez votre prompt en prose fluide, Claude aura tendance à répondre en prose. Si vous écrivez avec des tirets et du markdown, Claude répondra avec des tirets et du markdown. Alignez le style de votre prompt avec le style de sortie souhaité.

    Point spécifique à Opus 4.6 : ce modèle utilise le LaTeX par défaut pour les expressions mathématiques. Si vous travaillez dans un environnement qui ne rend pas le LaTeX (un email, un document texte), ajoutez : « Écris toutes les expressions mathématiques en texte simple, sans LaTeX. »

    Technique 6 : le prompt itératif — faire travailler Claude sur Claude

    Le prompt unique qui produit un résultat parfait du premier coup est un mythe. Les meilleurs résultats viennent d’un processus itératif où Claude améliore son propre travail. Deux approches fonctionnent particulièrement bien.

    L’interview inversée

    Au lieu de rédiger un prompt complexe vous-même, demandez à Claude de vous interviewer avant de travailler. C’est la technique recommandée par les power users et confirmée par Anthropic : Claude pose des questions auxquelles vous n’auriez pas pensé — contraintes techniques, cas limites, public secondaire, format de livraison.

    # Interview inversée
    Je veux que tu rédiges un article de blog sur le choix
    d'un outil IA pour les PME. Avant de commencer, pose-moi
    les 5 questions les plus importantes pour que ton article
    soit parfaitement calibré. Une question à la fois.

    Cette technique produit systématiquement de meilleurs résultats que le prompt direct, parce qu’elle force la clarification du besoin avant l’exécution. C’est l’équivalent d’un brief créatif en agence : on ne commence pas la maquette avant d’avoir compris le client.

    L’auto-évaluation

    Demandez à Claude de noter son propre travail et de l’améliorer. Cette technique exploite la capacité du modèle à adopter une posture critique sur sa propre production.

    # Auto-évaluation
    Rédige une introduction pour cet article.
    Puis évalue-la sur 3 critères :
    - Accroche (le lecteur a-t-il envie de continuer ?)
    - Clarté (la promesse de l'article est-elle limpide ?)
    - Concision (y a-t-il des mots inutiles ?)
    Note chaque critère sur 10 et propose une version améliorée
    qui vise 9/10 sur les trois.

    L’auto-évaluation fonctionne particulièrement bien sur les tâches de rédaction, de code et de raisonnement logique. Sur les tâches factuelles, préférez la vérification par recherche web plutôt que l’auto-évaluation — Claude ne peut pas corriger des faits qu’il ne connaît pas.

    Technique 7 : adapter le prompt au modèle utilisé

    Les trois modèles Claude ne réagissent pas de la même façon aux mêmes prompts. Adapter vos instructions au modèle que vous utilisez est un gain de qualité immédiat que la plupart des utilisateurs ignorent.

    Comportement Opus 4.6 Sonnet 4.6 Haiku 4.5
    Sensibilité au system prompt Très élevée — un ton normal suffit, évitez le sur-prompting Élevée — même principe, légèrement moins réactif qu’Opus Modérée — des instructions plus explicites aident
    Raisonnement spontané Très approfondi — peut sur-réfléchir, cadrez si nécessaire Équilibré — bon compromis profondeur/vitesse Minimal — préférez les instructions pas à pas
    Exploration proactive Forte — explore plusieurs pistes, parfois trop Modérée — reste focalisé sur la tâche Faible — exécute la tâche demandée, point
    Adaptive Thinking Oui — calibrage automatique de la réflexion Oui — même mécanisme Non — pas de thinking intégré
    Usage idéal Tâches complexes, agents, analyse longue Production quotidienne, code, rédaction Volume, classification, extraction

    Opus 4.6 a tendance à explorer en profondeur avant de répondre, ce qui peut gonfler le temps de réponse et la consommation de tokens sur des tâches simples. Si vous constatez qu’Opus « sur-réfléchit », ajoutez une consigne de cadrage : « Choisis une approche et engage-toi. Évite de revenir sur ta décision sauf si tu rencontres une contradiction claire. » Cette instruction est tirée directement de la documentation Anthropic.

    Sonnet 4.6 est le choix par défaut le plus rationnel pour 90 % des usages. Ses performances sont proches d’Opus sur le code (79,6 % vs 80,8 % sur SWE-bench) et la rédaction, pour un coût cinq fois moindre. Vos prompts n’ont pas besoin d’être différents de ceux d’Opus — Sonnet les interprète avec la même logique, juste un peu moins de profondeur exploratoire.

    Haiku 4.5 est un exécutant rapide, pas un raisonneur. Pour tirer le meilleur de Haiku, décomposez les tâches complexes en étapes simples, donnez des exemples explicites (few-shot), et spécifiez exactement le format de sortie. Ne lui demandez pas de « réfléchir » — demandez-lui de « produire ».

    5 templates de prompts réutilisables

    Ces cinq templates couvrent les cas d’usage les plus fréquents. Copiez-les, adaptez les balises à votre contexte, et utilisez-les comme point de départ.

    01
    Rédaction de contenu

    <role> Rédacteur spécialisé dans [domaine] </role> <contexte> Audience : [qui]. Objectif : [quoi]. Ton : [comment]. </contexte> <instructions> Rédige [format] de [longueur] sur [sujet]. Commence par [accroche type]. Termine par [conclusion type]. </instructions> <contraintes> Évite [liste des interdits]. </contraintes>

    02
    Analyse de document

    <instructions> Lis le document ci-dessous et produis : 1) Un résumé exécutif de [X] phrases. 2) Les [N] points clés classés par importance. 3) Les zones de risque ou d’incertitude. 4) Une recommandation d’action en [X] phrases. </instructions> <document> [contenu ou fichier uploadé] </document>

    03
    Email professionnel

    <contexte> Je suis [rôle]. J’écris à [destinataire + relation]. Objectif de l’email : [obtenir quoi]. Contrainte relationnelle : [tonalité adaptée]. </contexte> <instructions> Rédige l’email. Objet de 8 mots max. Corps de [X] paragraphes. Termine par un call-to-action clair. </instructions>

    04
    Revue de code

    <role> Développeur senior spécialisé en [langage/framework] </role> <instructions> Examine ce code. Pour chaque problème identifié, indique : la ligne concernée, le type de problème (bug, performance, lisibilité, sécurité), la correction proposée avec le code corrigé. Classe les problèmes par sévérité décroissante. </instructions> <code> [code à examiner] </code>

    05
    Recherche et synthèse

    <instructions> Recherche sur le web les informations les plus récentes sur [sujet]. Synthétise en : 1) État des lieux en [X] phrases. 2) Développements récents (derniers 3 mois). 3) Points de consensus et de débat. 4) Sources consultées avec URLs. Longueur totale : [X] mots. </instructions>

    Les erreurs qui ruinent vos prompts

    Le prompting n’est pas seulement une question de bonnes pratiques — c’est aussi une question de pièges à éviter. Voici les cinq erreurs les plus fréquentes, spécifiques à Claude.

    Sur-prompter les modèles 4.6. Si votre system prompt contient des « ALWAYS », « NEVER », « CRITICAL » à chaque paragraphe, Opus 4.6 va sur-réagir. Il déclenchera des outils sans raison, ajoutera des précautions inutiles, ou produira des réponses excessivement longues. Adoptez un ton d’instruction normal — Claude 4.6 n’a plus besoin qu’on lui crie dessus.

    Mélanger les instructions et les données. Sans balises XML, Claude peut confondre une phrase d’exemple avec une instruction. « Ne dis jamais ‘je ne sais pas’ » peut être interprété comme « ne dis jamais » (instruction) ou comme un exemple de phrase interdite. Les balises XML éliminent cette ambiguïté.

    Donner trop d’exemples identiques. Si vos cinq exemples suivent exactement le même schéma, Claude sur-apprend ce schéma et perd en créativité. Variez les cas : un cas standard, un cas limite, un cas ambigu, un cas négatif. La diversité des exemples compte plus que leur nombre.

    Ignorer le placement du contexte long. Quand vous chargez un document long (rapport, codebase, documentation), placez-le au début de votre prompt, avant votre question. Anthropic a mesuré jusqu’à 30 % d’amélioration de la qualité des réponses quand la question vient après le document, surtout sur des inputs multi-documents complexes.

    Demander « réfléchis bien » à Haiku. Haiku 4.5 n’a pas d’Adaptive Thinking. Lui demander de « réfléchir en profondeur » ne déclenche aucun raisonnement supplémentaire — ça ajoute juste du texte de remplissage. Avec Haiku, soyez directif : étapes numérotées, format précis, exemples concrets.

    Du prompt au système : ce qui vient ensuite

    Un bon prompt vous donne un bon résultat ponctuel. Mais un système de prompts — des instructions permanentes, un contexte chargé, des exemples intégrés, des règles appliquées automatiquement — vous donne des résultats exceptionnels à chaque échange, sans effort supplémentaire. C’est exactement ce que permettent les Projects de Claude.

    Dans le prochain article, nous passerons du prompt isolé au système structuré : comment configurer un Project qui contient votre rôle, vos règles, vos fichiers de référence et vos exemples, pour que chaque conversation hérite de ce contexte sans que vous ayez à le re-saisir. C’est le moment où Claude passe de « bon assistant » à « collaborateur de production ».

    Vous avez les sept techniques. Testez-les. Copiez les templates. Comparez les résultats avec vos anciens prompts. La différence sera visible dès le premier essai.

    Aller plus loin
    Explorez nos guides pour maîtriser l’IA

    Retrouvez tous nos guides pratiques pour comprendre et utiliser l’intelligence artificielle au quotidien.

    Découvrir les guides IA
    Mise à jour : avril 2026
    Étiquettes: