L’art du prompt avec ChatGPT : les techniques qui marchent en 2026
Vous tapez une question, vous obtenez une réponse moyenne. Vous reformulez, c’est un peu mieux. Vous ajoutez du contexte, c’est correct. Mais entre « correct » et « exactement ce qu’il me fallait », il y a un fossé. Ce deuxième article de la série « De zéro à machine de guerre » vous donne les techniques de prompting qui comblent ce fossé — adaptées aux modèles GPT-5.3 et GPT-5.4 d’avril 2026.
Un prompt, c’est une instruction. Pas une prière, pas une suggestion : une instruction. Plus elle est précise, plus le résultat est exploitable. Le problème, c’est que la précision a un coût : du temps, de la réflexion, de la structure. Ce guide vous apprend à investir ce temps aux bons endroits — là où la différence de qualité est la plus visible — et à automatiser le reste avec les Custom Instructions.
Tout ce qui suit a été testé avec GPT-5.3 Instant et GPT-5.4 Thinking en avril 2026. Les exemples sont complets et copiables.
Custom Instructions : votre system prompt permanent
Avant de travailler vos prompts individuels, configurez vos Custom Instructions. C’est le levier qui a le meilleur ratio effort/impact : vous le faites une fois, et chaque conversation en bénéficie automatiquement.
Les Custom Instructions se trouvent dans Paramètres > Personnalisation > Instructions personnalisées. Deux champs de 1 500 caractères chacun :
- « Que devrait savoir ChatGPT sur vous ? » — votre métier, votre secteur, votre niveau technique, les outils que vous utilisez, votre langue de travail. Ce champ fournit le contexte permanent.
- « Comment ChatGPT devrait-il répondre ? » — le format, le ton, la longueur, les comportements à éviter. Ce champ pilote le style de sortie.
La règle d’or : si une instruction serait encore vraie dans six mois, elle a sa place dans les Custom Instructions. Si elle est spécifique à une tâche, elle va dans le prompt de la conversation.
Un exemple concret qui change tout
Voici des Custom Instructions testées pour un consultant marketing indépendant francophone. Copiez-les, adaptez-les à votre cas.
# Champ 1 — Ce que ChatGPT doit savoir Je suis consultant marketing digital indépendant, basé en France. Mes clients sont des PME (10-200 salariés) dans le B2B tech. Je travaille sur : stratégie de contenu, SEO, LinkedIn, emailing. Mon niveau technique : à l'aise avec le HTML/CSS, pas développeur. Je produis tous mes contenus en français. J'utilise : WordPress, Mailchimp, LinkedIn, Google Analytics 4. # Champ 2 — Comment répondre Réponds en français. Tutoie-moi. Sois direct et concis — pas de phrases d'introduction inutiles. Quand je demande un texte, donne-moi le texte fini, pas un plan. Privilégie les exemples concrets à la théorie. Si je demande une liste, limite-la à 5-7 items sauf demande contraire. Ne commence jamais par "Bien sûr !" ou "Excellente question !". Si tu n'es pas sûr d'un fait, dis-le au lieu d'inventer.
Résultat : dès la première conversation, ChatGPT connaît votre contexte métier, adapte le ton et le format, et évite les tics de langage agaçants. Vous gagnez 2 à 3 échanges de cadrage à chaque nouvelle conversation.
Prompting avec GPT-5.4 Thinking : ce que le raisonnement change
GPT-5.4 Thinking ne se contente pas de générer du texte : il réfléchit avant de répondre. Cette phase de raisonnement change fondamentalement la manière dont vous devez prompter.
Le raisonnement est ajustable
Dans le sélecteur de modèles, quand vous choisissez Thinking, un curseur de « temps de réflexion » apparaît. Les niveaux disponibles dépendent de votre plan :
| Niveau | Accès | Quand l’utiliser |
|---|---|---|
| Light | Pro uniquement | Questions simples nécessitant un soupçon de raisonnement |
| Standard | Plus, Business, Pro | Analyse courante, code, synthèse de documents |
| Extended | Plus, Business, Pro | Problèmes complexes, logique multi-étapes, recherche |
| Heavy | Pro uniquement | Raisonnement maximum : maths avancées, audit de code critique |
En pratique, commencez toujours par Standard. Montez à Extended quand le résultat manque de profondeur. Le mode Heavy est rarement nécessaire sauf pour des problèmes de type « résolution de preuve mathématique » ou « audit de sécurité sur un code de 500 lignes ».
Le plan de raisonnement visible
Nouveauté de GPT-5.4 : pour les requêtes complexes, le modèle affiche un plan de raisonnement avant de commencer sa réponse. Vous pouvez ajouter des instructions pendant qu’il réfléchit pour ajuster la direction. C’est comme corriger le cap d’un collaborateur pendant qu’il rédige un premier jet, au lieu d’attendre le résultat final pour tout reprendre.
Pour déclencher cette fonctionnalité de manière fiable, ajoutez cette instruction à votre prompt :
# Déclencher le plan de raisonnement
Avant de rédiger ta réponse, présente ton plan d'approche
et attends ma confirmation avant de continuer.
Les cinq techniques de prompting qui comptent
Il existe des dizaines de « techniques de prompting » nommées. En 2026, avec les modèles GPT-5, cinq d’entre elles produisent une différence mesurable. Les autres sont soit intégrées au modèle (il le fait automatiquement), soit marginales.
1. Le cadrage contextuel (CTCO)
Structurez votre prompt en quatre blocs : Contexte, Tâche, Contraintes, Output. C’est le format le plus fiable avec GPT-5.4, qui est entraîné pour suivre des instructions structurées avec précision.
# Exemple CTCO — Rédaction d'un email commercial
CONTEXTE : Je suis directeur commercial chez DataFlow,
éditeur SaaS B2B de gestion de flux de données.
Notre prospect est le DSI d'un groupe industriel de 800 personnes.
Il a assisté à notre webinaire la semaine dernière.
TÂCHE : Rédige un email de relance post-webinaire qui propose
un rendez-vous de 30 minutes pour une démo personnalisée.
CONTRAINTES :
- Maximum 150 mots
- Ton professionnel mais pas corporatif
- Ne pas mentionner de prix
- Inclure une preuve sociale (invente un cas client crédible
dans l'industrie manufacturière)
OUTPUT : L'email complet, prêt à envoyer, avec objet.
Ce format fonctionne parce qu’il élimine l’ambiguïté. GPT-5.4 est calibré pour traiter les prompts ambigus comme des bugs : plus vous êtes explicite, meilleur est le résultat.
2. Le few-shot (exemples avant/après)
Donnez 2 à 3 exemples du résultat que vous attendez avant de poser votre requête. Le modèle reproduit le pattern observé bien mieux qu’il n’interprète une description abstraite.
# Few-shot — Réécriture de titres d'articles
Réécris ces titres de blog pour les rendre plus accrocheurs
et orientés bénéfice lecteur. Voici trois exemples :
AVANT : "Les avantages du CRM pour les PME"
APRÈS : "CRM en PME : 5 gains concrets dès le premier mois"
AVANT : "Comment utiliser l'IA pour le recrutement"
APRÈS : "Recrutement IA : réduire de 40 % le temps de tri des CV"
AVANT : "Guide de l'email marketing"
APRÈS : "Email marketing : le template qui génère 35 % d'ouverture"
Maintenant, réécris ces titres avec la même logique :
1. "Les tendances du marketing digital en 2026"
2. "Pourquoi adopter une stratégie de contenu"
3. "Les outils IA pour la gestion de projet"
Le few-shot est particulièrement efficace pour les tâches de reformulation, de classification, et de génération de contenu dans un style précis. Avec 2-3 exemples, vous obtenez une cohérence que même les Custom Instructions ne peuvent garantir seules.
3. Le chain of thought (raisonnement étape par étape)
Demandez au modèle de décomposer son raisonnement avant de donner la réponse finale. Avec GPT-5.4 Thinking, le chain of thought est partiellement automatique (le modèle réfléchit dans sa phase de « thinking »). Avec GPT-5.3 Instant, vous devez le demander explicitement.
# Chain of thought — Analyse de rentabilité
Mon entreprise envisage de remplacer notre outil de support
client (Zendesk, 85 €/agent/mois, 12 agents) par Intercom
(74 €/agent/mois + 0,99 € par résolution IA, estimation
400 résolutions IA/mois).
Raisonne étape par étape :
1. Calcule le coût actuel annuel
2. Calcule le coût Intercom annuel (agents + résolutions IA)
3. Compare les deux
4. Identifie le seuil de résolutions IA où Intercom
devient plus cher
5. Donne ta recommandation avec les réserves
La différence entre un prompt « compare ces deux solutions » et un prompt avec chain of thought : le premier donne une réponse vague, le second donne un calcul vérifiable.
4. Les balises de structure
GPT-5 est entraîné pour respecter les balises XML et Markdown dans les prompts. Utilisez-les pour séparer clairement les sections de votre instruction, surtout quand vous fournissez des données à analyser.
# Balises de structure — Analyse de feedback client
<rôle>
Tu es analyste UX spécialisé en SaaS B2B.
</rôle>
<données>
[Coller ici 20-30 verbatims clients extraits de vos enquêtes]
</données>
<tâche>
1. Identifie les 5 thèmes récurrents dans ces retours
2. Pour chaque thème, cite 2 verbatims représentatifs
3. Classe les thèmes par fréquence décroissante
4. Propose une action concrète par thème
</tâche>
<format>
Tableau à 4 colonnes : Thème | Fréquence | Verbatims | Action
</format>
Les balises sont particulièrement utiles quand votre prompt mélange des instructions et des données. Sans elles, le modèle peut confondre vos données avec vos instructions — surtout si les données contiennent elles-mêmes du langage instructif.
5. La contrainte négative
Dire au modèle ce qu’il ne doit pas faire est souvent plus efficace que de décrire ce qu’il doit faire. GPT-5.4 est particulièrement réactif aux contraintes négatives explicites.
# Contraintes négatives — Brief de contenu
Rédige une introduction de 100 mots pour un article
sur l'IA en comptabilité.
NE PAS :
- Commencer par "Dans un monde où..."
- Utiliser les mots "révolutionnaire" ou "incontournable"
- Poser une question rhétorique en ouverture
- Faire une liste de ce que l'article va couvrir
- Mentionner ChatGPT ou OpenAI spécifiquement
FAIRE :
- Commencer par un scénario concret qu'un comptable
reconnaîtrait
- Poser le problème en 2 phrases, la solution en 2 phrases
Les contraintes négatives sont le meilleur antidote aux tics de langage des LLM. Elles forcent le modèle à sortir de ses patterns par défaut.
Le routage automatique Instant → Thinking : comment il fonctionne et quand le contourner
Quand vous sélectionnez « Instant » dans le sélecteur de modèles, ChatGPT analyse votre prompt et peut automatiquement basculer vers GPT-5.4 Thinking si la complexité le justifie. C’est ce qu’OpenAI appelle le mode « Auto ».
En pratique, le routage fonctionne bien pour les cas tranchés : une question simple reste sur Instant, un problème de code complexe bascule vers Thinking. Mais dans la zone grise — analyse de texte un peu longue, comparaison de plusieurs options, rédaction structurée —, le routeur peut rester sur Instant alors que Thinking aurait donné un meilleur résultat.
Si votre tâche implique un raisonnement en plusieurs étapes, une analyse de données, une comparaison multi-critères, ou si le résultat d’Instant vous semble superficiel, sélectionnez Thinking manuellement dans le sélecteur de modèles. Le surcoût en temps de réponse (quelques secondes de plus) est largement compensé par la qualité du résultat.
Cinq templates réutilisables par cas d’usage
Voici cinq prompts prêts à l’emploi, un par cas d’usage courant. Copiez-les, remplacez les crochets par vos données.
Template 1 — Synthèse de document
# Synthèse de document
Voici un document de [type : rapport / article / compte-rendu].
Produis une synthèse en 3 parties :
1. RÉSUMÉ (5 phrases max) : les points clés
2. DÉCISIONS ou CONCLUSIONS : ce qui a été tranché
3. ACTIONS : les prochaines étapes identifiées,
avec responsable si mentionné
Si le document ne contient pas de décisions ou d'actions
explicites, indique "Non identifié" plutôt que d'inventer.
[Coller le document ici]
Template 2 — Comparaison de solutions
# Comparaison de solutions
Compare [Solution A] et [Solution B] pour [cas d'usage précis].
Structure ta réponse ainsi :
1. Tableau comparatif sur ces critères : [critère 1],
[critère 2], [critère 3], prix, limites principales
2. Pour qui chaque solution est la meilleure option
(1 phrase par solution)
3. Ta recommandation pour mon cas précis : [décrire votre
contexte en 2-3 phrases]
Utilise des données vérifiables. Si un prix ou une feature
n'est pas certain, signale-le.
Template 3 — Rédaction d’un contenu structuré
# Rédaction d'un contenu structuré
Rédige un [type : article de blog / post LinkedIn / newsletter]
sur [sujet].
PUBLIC : [décrire l'audience en 1 phrase]
OBJECTIF : [informer / convaincre / éduquer / vendre]
TON : [professionnel / conversationnel / technique]
LONGUEUR : [nombre de mots ou de paragraphes]
Structure :
- Accroche (1 phrase qui capte l'attention par un fait
ou un scénario)
- [Nombre] sections titrées
- Conclusion avec un appel à l'action précis
INTERDITS : [lister les formules ou approches à éviter]
Template 4 — Debug de code
# Debug de code
Ce code [langage] produit [décrire le comportement observé]
au lieu de [décrire le comportement attendu].
Environnement : [version du langage, framework, OS]
1. Identifie la cause probable du bug
2. Propose la correction avec le code modifié
3. Explique pourquoi ça corrige le problème
4. Signale si d'autres parties du code pourraient
causer des problèmes similaires
[Coller le code ici]
Template 5 — Brainstorm structuré
# Brainstorm structuré
Je cherche des idées pour [objectif précis].
Contexte : [2-3 phrases sur la situation actuelle]
Contraintes : [budget, délai, ressources, compétences]
Ce qui a déjà été essayé : [lister pour éviter les doublons]
Propose 7 idées classées en 3 catégories :
- Quick wins (faisables cette semaine)
- Projets moyen terme (1-3 mois)
- Paris ambitieux (6+ mois)
Pour chaque idée : 1 phrase de description + 1 phrase
sur le résultat attendu.
Les erreurs de prompting les plus courantes (et comment les corriger)
Après des centaines de tests avec GPT-5.3 et GPT-5.4, voici les quatre erreurs qui coûtent le plus cher en qualité de résultat.
Erreur 1 : le prompt trop vague. « Aide-moi avec mon marketing » ne produit rien d’utile. « Propose 5 sujets d’articles de blog pour attirer des DSI de PME industrielles vers notre solution de cybersécurité » produit un résultat actionnable. La spécificité est gratuite et le retour sur investissement est immédiat.
Erreur 2 : l’absence de format de sortie. Si vous ne précisez pas le format, le modèle choisit pour vous — et son choix par défaut (longs paragraphes avec titres) n’est pas toujours le bon. Précisez : tableau, liste à puces, email prêt à envoyer, code commenté, JSON.
Erreur 3 : confondre données et instructions. Quand vous collez un texte à analyser directement dans votre prompt sans le séparer, le modèle peut interpréter des passages du texte comme des instructions. Utilisez des balises (<données>, <texte_source>, ou même de simples guillemets triples) pour délimiter.
Erreur 4 : ne jamais itérer. Le prompt engineering est un processus itératif. Votre premier prompt est un brouillon. Analysez le résultat, identifiez ce qui manque ou ce qui déborde, et affinez. Trois itérations ciblées valent mieux qu’un seul prompt de 500 mots.
Ce que vous pouvez faire maintenant
Ouvrez ChatGPT, configurez vos Custom Instructions avec l’exemple fourni (adapté à votre métier), et testez deux des cinq templates sur une vraie tâche de votre semaine. Comparez le résultat avec ce que vous obteniez avant. La différence est immédiate.
Le prochain article de la série attaque les Custom GPTs : comment créer des assistants spécialisés qui combinent instructions, fichiers de connaissances et appels API. C’est la couche au-dessus du prompting — celle qui automatise ce que vous venez d’apprendre.
D’ici là, prenez le template qui correspond le mieux à votre travail quotidien et utilisez-le cinq fois cette semaine. Au cinquième usage, vous l’aurez déjà affiné en quelque chose de vraiment personnel.
Retrouvez l’ensemble de nos guides pratiques sur l’intelligence artificielle : concepts, outils, méthodes.