7 techniques de prompt pour des résultats pro
Un prompt identique ne produit pas le même résultat sur Qwen et sur ChatGPT. Le soft-switch /think contrôle le raisonnement en une ligne. Les balises chatml structurent l’attention du modèle. Le format JSON forcé transforme Qwen en backend fiable. Sept techniques concrètes, testées sur Qwen3.6-Plus et Qwen3-Max, avec exemples avant/après et templates prêts à copier.
Vous avez testé Qwen avec vos prompts ChatGPT habituels et le résultat est… correct. Pas transcendant. Parfois moins bon qu’avec Claude ou GPT. Vous commencez à vous demander si le modèle est vraiment à la hauteur. Mauvaise piste : le problème vient du prompt, pas du modèle. Qwen a sa propre grammaire d’interaction, héritée de son architecture hybride thinking/non-thinking et de son entraînement multilingue sur 119 langues. L’exploiter correctement demande quelques ajustements que les guides grand public ignorent.
Cet article rassemble sept techniques éprouvées pour tirer le meilleur de Qwen. Certaines s’appliquent à tous les LLM, d’autres sont spécifiques à la famille Qwen. À la fin, vous aurez cinq templates prêts à copier et un tableau pour savoir quel modèle Qwen utiliser selon la tâche.
Technique 1 — Le soft-switch /think et /no_think
C’est la technique la plus puissante et la plus sous-utilisée. Les modèles Qwen3 et Qwen3.5 hybrides (Qwen3.5-Plus, Qwen3.5-Flash, Qwen3-Max, Qwen3-235B, Qwen3-30B-A3B) reconnaissent deux commandes textuelles qui pilotent leur raisonnement en une ligne :
- /think — active le raisonnement étape par étape. Le modèle prend le temps de réfléchir avant de répondre. Idéal pour le code complexe, les mathématiques, l’analyse logique, les arbitrages difficiles.
- /no_think — désactive le raisonnement. Le modèle répond immédiatement, sans chaîne de pensée. Idéal pour le chat fluide, les tâches simples, les traductions, le résumé rapide.
Ces balises se placent dans le prompt utilisateur ou le system prompt, en général en fin de message. Le modèle suit la commande la plus récente dans une conversation multi-tours — vous pouvez donc basculer en cours de conversation. Exemple :
# Prompt avec soft-switch
Résume ce rapport en 3 points et donne-moi les 2 risques principaux.
/no_think
# Tour suivant dans la même conversation
Maintenant, construis un plan d'action chiffré sur 6 mois
pour adresser chacun des risques identifiés.
/think
Le premier tour exécute une synthèse rapide (pas besoin de réflexion). Le second bascule en mode raisonnement pour construire un plan solide. Résultat : vitesse quand vous la voulez, profondeur quand vous en avez besoin, sans changer de modèle ni refaire le prompt de zéro.
Certains modèles (Qwen3-235B-A22B-Thinking, Qwen3-30B-A3B-Thinking, QwQ-32B) sont en mode thinking permanent — le /no_think sera ignoré. Qwen3.6-Plus aussi : sa chaîne de pensée est toujours active par design. Pour basculer librement, utilisez les modèles hybrides listés ci-dessus.
Technique 2 — Le rôle motivé, pas juste désigné
« Tu es un expert SEO. » Ce genre de prompt ne sert à rien avec Qwen. Le modèle a été entraîné sur assez de contenu pour savoir qu’un « expert SEO » existe — mais il ne sait pas ce que vous attendez d’un expert SEO. Un rôle motivé, en revanche, change radicalement la qualité de sortie.
Rôle désigné (faible) :
Tu es un expert SEO. Audite cette page.
Rôle motivé (fort) :
Tu es consultant SEO senior pour un e-commerce B2B. Tu as audité plus de 200 sites. Ton objectif : identifier les 5 problèmes qui bloquent le plus le classement organique, en priorisant par l'impact estimé (trafic) et l'effort de correction (temps-dev). Pour chaque problème, donne le diagnostic, la recommandation technique précise, et une estimation d'impact chiffrée. Audite cette page : [contenu de la page]
La différence tient en trois éléments : un contexte métier (e-commerce B2B), un objectif précis (5 problèmes, prioriser par impact/effort), et un format de sortie attendu (diagnostic + reco + impact chiffré). Ces trois ajouts transforment une réponse vague en analyse structurée et actionnable. Qwen étant particulièrement sensible au contexte fourni dans le system prompt, l’effort paie.
Technique 3 — Les balises pour structurer l’attention
Quand vous envoyez du texte long à Qwen — un rapport, un brief, un document à analyser — le modèle a plus de facilité à traiter l’information si elle est balisée explicitement. C’est vrai pour tous les LLM, mais Qwen y est particulièrement réceptif grâce à son entraînement sur du contenu structuré.
Trois formats fonctionnent bien :
- Balises XML — <document>…</document>, <contexte>…</contexte>, <exemple>…</exemple>. Lisible par le modèle, facile à parser en sortie si besoin.
- Délimiteurs Markdown — ### Titre de section, triple backticks pour les blocs de code ou les extraits à analyser.
- Séparateurs triple-tirets — trois tirets avant et après une zone, pour isoler du texte brut.
Exemple concret pour un audit de contenu :
<contexte> Je gère un blog B2B dans le SaaS RH. Cible : DRH de PME de 50-500 salariés. Objectif : générer des leads qualifiés, pas juste du trafic. </contexte> <article_a_auditer> [texte complet de l'article ici] </article_a_auditer> <tache> Identifie les 3 axes d'amélioration qui augmenteraient le taux de conversion leads, en expliquant pour chacun : le problème actuel, la correction, et l'effet attendu. </tache>
Cette structure apporte deux gains : le modèle sait exactement ce qui est contexte (info de fond), ce qui est matériel à analyser, et ce qui est la tâche à exécuter. Résultat : moins de divagation, des réponses plus ciblées.
Technique 4 — Le format de sortie forcé
Qwen est excellent pour produire du JSON valide, du CSV propre, du YAML parsable — à condition de lui demander explicitement. C’est la technique qui transforme Qwen d’un chatbot en composant logiciel fiable, utilisable dans des scripts ou des intégrations.
Sans structuration (risqué en production) :
Extrais les informations clés de ce CV : [CV]
Avec format forcé (production-ready) :
Extrais les informations clés de ce CV et retourne uniquement
un objet JSON valide, sans texte avant ni après, au format suivant :
{
"nom": "string",
"email": "string",
"annees_experience": "number",
"competences_cles": ["string"],
"dernier_poste": {
"titre": "string",
"entreprise": "string",
"duree_mois": "number"
}
}
CV à analyser :
[CV]
Deux règles à retenir : donnez le schéma exact attendu (pas juste « en JSON »), et précisez « sans texte avant ni après » — sinon Qwen, comme ses concurrents, a tendance à ajouter une introduction conversationnelle qui casse le parsing. Cette technique est particulièrement utile si vous exploitez Qwen via un agent IA ou une automatisation.
Technique 5 — L’ancrage multilingue
Qwen a été entraîné sur 119 langues et dialectes. Cette couverture en fait le meilleur modèle du top 5 sur les langues peu représentées (asiatiques, africaines, dialectes régionaux). Mais elle crée aussi un piège spécifique : Qwen peut dériver linguistiquement au cours d’une conversation longue, mélanger des tournures chinoises en français, ou basculer en anglais sans prévenir.
La parade est simple : ancrez la langue cible explicitement dans le system prompt, et précisez le registre. Exemple :
Tu réponds exclusivement en français de France, registre professionnel, sans anglicismes. N'utilise jamais « delivery », « meeting », « feedback » — dis « livraison », « réunion », « retour ». Si un terme anglais est incontournable (nom propre, marque), garde-le tel quel sans traduire.
Ce type de briefing stabilise la sortie sur des conversations longues et évite les dérives typiques des modèles multilingues. Sur Qwen3-Max en particulier, l’ancrage est crucial au-delà de 20 tours de conversation.
Technique 6 — Le few-shot inversé
Le few-shot classique — donner des exemples de bonnes réponses — fonctionne bien sur Qwen. Mais une variante est encore plus efficace pour des tâches subjectives (ton éditorial, style d’écriture, formatage) : le few-shot inversé, où vous montrez à la fois ce que vous voulez et ce que vous ne voulez pas.
Tâche : réécris cette accroche produit pour un e-commerce lunettes. Exemples de ce que JE VEUX : - « Monture acétate italien, fabrication 100% main. 15 jours d'essai à domicile, retour gratuit. » - « Verres progressifs signés Essilor, garantis 2 ans. Essayage virtuel en 30 secondes depuis votre téléphone. » Exemples de ce que JE NE VEUX PAS : - « Découvrez nos magnifiques montures qui sublimeront votre style ! » - « Nos lunettes innovantes révolutionnent votre quotidien. » Réécris cette accroche : [accroche actuelle]
En montrant les deux registres, vous donnez à Qwen un cadre beaucoup plus serré. Il comprend que vous voulez du factuel, pas du marketing creux. Cette technique fonctionne aussi pour calibrer le niveau de formalité, la longueur des phrases, le vocabulaire technique vs grand public.
Technique 7 — La chaîne d’itérations pilotée
Qwen performe mieux en plusieurs passes qu’en un seul méga-prompt. Plutôt que de demander un article complet en un prompt, découpez en étapes :
Demandez le plan, en mode /think. Validez ou ajustez. Cette passe mobilise le raisonnement pour bien structurer.
En mode /no_think, demandez la rédaction de chaque H2 séparément. Plus rapide, plus contrôlable.
En mode /think, demandez une relecture critique d’un angle précis : cohérence, ton, factualité. Appliquez les corrections.
Cette approche exploite la fenêtre de 1 million de tokens de Qwen3.6-Plus : vous gardez tout le contexte (plan, sections précédentes, brief initial) dans la conversation, et chaque passe s’appuie sur les précédentes. Résultat : moins d’hallucinations, meilleure cohérence, contrôle à chaque étape.
Quel modèle Qwen pour quelle tâche
Les techniques ci-dessus s’appliquent à tous les modèles Qwen, mais certains sont mieux calibrés pour certains usages. Voici le tableau de correspondance que j’utilise au quotidien :
| Tâche | Modèle recommandé | Mode thinking |
|---|---|---|
| Rédaction longue (article, rapport) | Qwen3.5-Plus ou Qwen3-Max | /think sur plan et révision, /no_think sur rédaction |
| Résumé rapide, traduction | Qwen3.5-Flash | /no_think |
| Code et debug | Qwen3-Coder ou Qwen3.6-Plus | thinking permanent (par défaut sur 3.6-Plus) |
| Analyse de données, raisonnement | Qwen3-Max | /think |
| Génération JSON, extraction | Qwen3.5-Flash ou Qwen3.5-Plus | /no_think |
| Analyse d’image ou PDF | Qwen3-VL | selon complexité |
| Chat informel, brainstorming | Qwen3-Max avec /no_think | /no_think |
5 templates prêts à copier
Voici cinq templates directement utilisables dans Qwen Chat ou via l’API. Personnalisez les parties entre crochets pour votre contexte.
Template 1 — Analyse critique d’un texte
Tu es [rôle expert] avec [X années] d'expérience en [domaine]. <texte_a_analyser> [collez le texte ici] </texte_a_analyser> Produis une analyse en 4 parties : 1. Points forts (3 maximum, concrets) 2. Points faibles (3 maximum, avec impact) 3. Risques non adressés (s'il y en a) 4. Recommandation globale (garder / retravailler / refuser) Sois factuel, pas diplomate. Si c'est mauvais, dis-le. /think
Template 2 — Extraction structurée
Extrais les informations suivantes du document ci-dessous et
retourne UNIQUEMENT un objet JSON valide, sans préambule :
{
"[champ_1]": "type",
"[champ_2]": "type",
"[champ_3]": ["type"]
}
Document :
[collez le document ici]
/no_think
Template 3 — Réécriture stylistique
Réécris le texte ci-dessous en respectant ces contraintes : - Registre : [formel / semi-formel / conversationnel] - Longueur : [garder équivalent / -30% / -50%] - Interdictions : [liste de tournures à éviter] - Exemples du style voulu : « [exemple 1] » « [exemple 2] » Texte à réécrire : [collez le texte] /no_think
Template 4 — Plan stratégique itératif
Contexte : [décris ta situation en 3-4 phrases] Objectif : [ce que tu veux atteindre] Contraintes : [budget, temps, équipe, technique] Étape 1 — Propose 3 approches stratégiques différentes pour atteindre cet objectif. Pour chacune : logique, risques, effort. Ne rédige rien d'autre. Attends ma validation avant de continuer. /think
Puis dans le tour suivant : « Je retiens l’approche 2. Détaille-moi maintenant le plan d’action sur 3 mois. »
Template 5 — Benchmark comparatif
Compare les options suivantes sur ces critères : [option A] vs [option B] vs [option C] Critères (par ordre d'importance) : 1. [critère 1] 2. [critère 2] 3. [critère 3] Produis un tableau comparatif, puis une recommandation finale argumentée pour le profil suivant : [décris ton profil/besoin]. Si des données te manquent pour trancher, indique-le explicitement. Ne bluffe pas. /think
Ce que cela change pour vous
La différence entre un utilisateur lambda et un utilisateur avancé de Qwen ne tient pas à la complexité des prompts, mais à leur précision. Un rôle motivé, des balises, un format de sortie explicite, un soft-switch bien placé — ces quatre réflexes combinés changent littéralement la qualité des réponses.
Commencez par intégrer les techniques 1, 2 et 4 à votre pratique quotidienne : soft-switch thinking, rôle contextualisé, format forcé. Ce sont les trois qui ont le plus gros retour sur investissement en temps. Le reste suivra naturellement avec l’usage.
L’article suivant creuse la technique la plus spécifique à Qwen : le mode Thinking vs Non-Thinking, avec des exemples chiffrés sur l’impact qualité/coût/latence selon le type de tâche. Si vous l’ignoriez avant cet article, vous allez voir à quel point ça change la donne.
Explications, tutoriels et techniques avancées pour passer du débutant au pro avec les grands modèles de langage.