Prompt Engineering : Guide Complet pour MaĂ®triser l’Art du Prompt 🤖
Techniques, exemples concrets et stratégies avancées pour ChatGPT, Claude et Gemini en 2026
Un bon prompt peut transformer un rĂ©sultat mĂ©diocre en rĂ©sultat exceptionnel — avec le mĂŞme modèle IA, au mĂŞme prix. Le prompt engineering est la discipline qui consiste Ă formuler des instructions prĂ©cises pour obtenir exactement ce que vous voulez d’un modèle de langage (LLM). Ce n’est pas de la « magie » — c’est un ensemble de techniques reproductibles qui s’apprennent et se maĂ®trisent.
En 2026, les modèles sont devenus extrĂŞmement capables (Claude Opus 4.5, GPT-5, Gemini 3 Pro), mais la qualitĂ© du prompt reste le facteur dĂ©terminant entre un rĂ©sultat de stagiaire et un rĂ©sultat d’expert. Ce guide couvre toutes les techniques, du dĂ©butant Ă l’avancĂ©, avec des exemples concrets que vous pouvez copier et adapter immĂ©diatement.
đź“‘ Sommaire
Les 5 principes fondamentaux
Avant toute technique avancée, ces principes de base transforment immédiatement la qualité de vos résultats :
| Principe | Mauvais prompt | Bon prompt |
|---|---|---|
| 1. Soyez spĂ©cifique | « Écris un email » | « Écris un email de relance Ă un client B2B qui n’a pas rĂ©pondu Ă notre devis depuis 5 jours. Ton professionnel mais pas agressif. 150 mots max. » |
| 2. Définissez le format | « Liste les avantages de Python » | « Liste les 5 principaux avantages de Python pour un développeur débutant, avec un exemple concret pour chacun. Format : tableau avec colonnes Avantage | Exemple. » |
| 3. Donnez le contexte | « Corrige ce code » | « Corrige ce code Python 3.12 qui plante Ă la ligne 23 avec une TypeError. C’est un script FastAPI qui gère des webhooks Stripe. [code] » |
| 4. Précisez le public | « Explique le machine learning » | « Explique le machine learning à un étudiant en L1 informatique qui connaît Python mais pas les mathématiques avancées. » |
| 5. Donnez des exemples | « Reformule ce texte » | « Reformule ce texte dans le style suivant. Exemple de style voulu : [exemple]. Texte à reformuler : [texte]. » |
Techniques de prompting : du zero-shot au chain-of-thought
| Technique | Principe | Quand l’utiliser |
|---|---|---|
| Zero-shot | Donner une instruction directe sans exemple | Tâches simples et non ambiguës : traduction, résumé, classification simple |
| Few-shot | Fournir 2-5 exemples input/output avant la tâche | Tâches avec un format spécifique, ton particulier, ou classification custom |
| Chain-of-Thought (CoT) | Demander au modèle de raisonner étape par étape | Raisonnement logique, maths, débogage, analyse complexe |
| Self-consistency | Générer plusieurs réponses CoT et prendre la majorité | Décisions critiques où la fiabilité prime sur la vitesse |
| Tree-of-Thought | Explorer plusieurs branches de raisonnement, évaluer, choisir | Problèmes ouverts avec plusieurs solutions possibles (stratégie, créativité) |
| ReAct (Reason + Act) | Alterner raisonnement et actions (recherche, calcul, code) | Tâches agentiques avec outils (recherche web, exécution de code, APIs) |
Few-shot en pratique
Le few-shot est la technique la plus sous-utilisĂ©e et la plus puissante pour les tâches rĂ©pĂ©titives. Au lieu d’expliquer ce que vous voulez avec des mots, montrez-le avec des exemples :
Prompt : « Classifie chaque avis client comme Positif, NĂ©gatif, ou Neutre. Exemples : ‘Super produit, livraison rapide !’ → Positif | ‘Bof, rien de spĂ©cial’ → Neutre | ‘CassĂ© Ă la livraison, service client absent’ → NĂ©gatif. Maintenant classifie : ‘Bon rapport qualitĂ©/prix mais emballage un peu cheap' »
Le modèle comprend le format, le niveau de granularité attendu, et le style de classification — sans que vous ayez à les décrire verbalement.
Chain-of-Thought en pratique
Ajoutez simplement « Raisonne Ă©tape par Ă©tape avant de donner ta rĂ©ponse finale » Ă la fin de votre prompt. Cela amĂ©liore significativement les performances sur les tâches de raisonnement logique, mathĂ©matique, et d’analyse.
Sans CoT : « Est-ce que 17 est premier ? » → Le modèle peut répondre correctement ou non.
Avec CoT : « Est-ce que 17 est premier ? Raisonne étape par étape. » → Le modèle vérifie la divisibilité par 2, 3, 5, 7… et conclut correctement.
Structurer un prompt complexe
Pour les tâches complexes (rĂ©daction longue, analyse multi-critères, code avec contraintes), structurez votre prompt en sections distinctes. L’ordre optimal :
- Contexte / Rôle — Qui est le modèle, dans quelle situation ?
- Tâche — Que doit-il faire exactement ?
- Contraintes — Limites, format, longueur, ton, interdictions
- Exemples — Input/output attendus (few-shot)
- Input — Les données à traiter
Exemple structuré :
« Tu es un rĂ©dacteur SEO expert en français. Ta tâche : rĂ©diger une meta description pour la page suivante. Contraintes : 155 caractères max, inclure le mot-clĂ© principal, donner envie de cliquer, ne pas commencer par ‘DĂ©couvrez’. Exemple : pour une page sur le thĂ©orème de Pythagore, une bonne meta description serait ‘ThĂ©orème de Pythagore : formule, dĂ©monstration et exercices corrigĂ©s. Cours complet pour le brevet avec exemples concrets.’ Page Ă traiter : [titre et rĂ©sumĂ© de la page]. »
System prompts et attribution de rĂ´les
Le system prompt (message système) dĂ©finit le comportement global du modèle avant toute interaction utilisateur. C’est le « briefing » que vous donnez Ă l’IA avant qu’elle commence Ă travailler. Tous les modèles majeurs (Claude, GPT, Gemini) supportent les system prompts via leur API.
Pourquoi c’est puissant : le system prompt a plus de « poids » qu’une instruction dans le message utilisateur. Le modèle le considère comme une directive permanente plutĂ´t qu’une requĂŞte ponctuelle.
Exemples de system prompts efficaces :
- Assistant code : « Tu es un dĂ©veloppeur senior Python/TypeScript. Tu Ă©cris du code propre, typĂ©, avec des docstrings. Tu expliques tes choix architecturaux. Tu utilises les best practices 2026 (Pydantic v2, FastAPI, async/await). Quand tu dĂ©tectes une erreur, corrige-la ET explique pourquoi c’Ă©tait une erreur. »
- Rédacteur SEO : « Tu es un expert SEO français. Tu rédiges du contenu optimisé pour le référencement naturel : H1/H2/H3 sémantiques, mot-clé dans le premier paragraphe, phrases courtes, maillage interne. Ton style est direct, informatif, pas commercial. »
- Tuteur pĂ©dagogique : « Tu es un professeur patient qui enseigne Ă un Ă©lève de 3e. Tu utilises des analogies simples, des exemples du quotidien, et tu vĂ©rifies la comprĂ©hension avant de passer au concept suivant. Tu ne donnes jamais la rĂ©ponse directement — tu guides l’Ă©lève vers la solution. »
XML tags et formatage avancé
Les modèles modernes, en particulier Claude, sont excellents pour comprendre la structure via des balises XML. Les XML tags permettent de séparer clairement les différentes parties de votre prompt — surtout quand il contient des données brutes (texte à analyser, code, données CSV) qui pourraient être confondues avec des instructions.
Exemple avec XML tags :
« Analyse le document suivant et produis un résumé exécutif de 3 paragraphes.
<document>[contenu du document ici]</document>
<instructions>Le résumé doit couvrir : 1) le problème identifié, 2) la solution proposée, 3) les chiffres clés. Ton : professionnel, factuel.</instructions>
<format>3 paragraphes, 200 mots max au total</format> »
Les balises courantes : <context>, <instructions>, <examples>, <input>, <output_format>, <constraints>. Le nom exact importe peu — c’est la sĂ©paration structurelle qui aide le modèle Ă comprendre quelle partie est quoi.
Exemples concrets par cas d’usage
Code : débogage
« Ce code Python plante avec l’erreur suivante : [erreur]. Voici le code : [code]. 1) Explique pourquoi cette erreur se produit. 2) Propose une correction. 3) Indique si d’autres bugs potentiels existent dans ce code. »
Rédaction : article de blog
« Rédige un article de 800 mots sur [sujet]. Public : [profil]. Structure : intro accrocheuse (pas de question rhétorique), 3-4 sections avec H2, conclusion actionnable. Ton : informatif mais accessible. Inclure des données chiffrées quand possible. »
Analyse : données CSV
« Voici un CSV de ventes mensuelles : [données]. Identifie : 1) les 3 mois les plus performants, 2) la tendance générale (croissance, décroissance, stagnation), 3) les anomalies éventuelles. Présente tes résultats dans un tableau récapitulatif. »
Traduction : nuancée
« Traduis ce texte de l’anglais vers le français. Le contexte est un document juridique — utilise le vocabulaire juridique français appropriĂ©. Quand un terme a plusieurs traductions possibles, choisis la plus formelle et indique les alternatives entre parenthèses. »
Creative : brainstorming
« GĂ©nère 10 noms de produit pour une app de mĂ©ditation destinĂ©e aux 25-35 ans urbains. Critères : court (2-3 syllabes max), prononçable en français et en anglais, pas de nom dĂ©jĂ pris par une app existante. Pour chaque nom, explique en une phrase le feeling qu’il Ă©voque. »
Les 7 erreurs les plus fréquentes
- Prompt trop vague. « Écris quelque chose sur le marketing » → le modèle ne sait pas quoi écrire, pour qui, dans quel format, quelle longueur. Résultat générique garanti. Spécifiez tout ce qui vous importe
- Instructions contradictoires. « Sois concis mais détaillé » ou « Ton formel mais décontracté » — le modèle ne peut pas satisfaire deux directives opposées. Choisissez une direction claire
- Contexte manquant. Demander de corriger du code sans donner le message d’erreur, le langage, ou le framework. Plus le modèle a de contexte, meilleure est la rĂ©ponse
- Pas d’exemples. Expliquer le format voulu en mots au lieu de le montrer avec un few-shot. Un exemple vaut mieux que 5 phrases d’explication
- Confondre longueur et qualitĂ©. Un prompt de 3 000 mots n’est pas forcĂ©ment meilleur qu’un prompt de 200 mots bien structurĂ©. La clartĂ© prime sur la quantitĂ©
- Ne pas itérer. Envoyer un prompt, obtenir un résultat moyen, et abandonner. Le prompt engineering est itératif — ajustez, affinez, précisez après chaque réponse
- Ignorer le temperature. Pour du code ou du factuel, une temperature basse (0-0.3) donne des rĂ©sultats plus fiables. Pour du crĂ©atif, une temperature plus haute (0.7-1.0) produit plus de variĂ©tĂ©. Via l’API, ce paramètre change fondamentalement le comportement du modèle
Différences entre modèles : adapter ses prompts
| Modèle | Force principale | Tips de prompting |
|---|---|---|
| Claude (Anthropic) | Suivi d’instructions, XML tags, documents longs, code | Utiliser des XML tags pour structurer. Claude excelle quand le prompt est bien organisĂ©. Contexte window très large (200K tokens) |
| GPT-5 (OpenAI) | Raisonnement, génération créative, outils/plugins | Fonctionne bien avec des instructions en langage naturel. System prompts très efficaces. Bon avec le JSON structuré |
| Gemini 3 Pro (Google) | Contexte massif (1M tokens), multimodal, grounding web | IdĂ©al pour l’analyse de documents très longs. Peut chercher sur le web. La fenĂŞtre de contexte massive permet d’inclure des codebases entières |
Outils et ressources pour progresser
Playgrounds pour expérimenter : le playground Claude (console.anthropic.com), le playground OpenAI, et Google AI Studio permettent de tester des prompts avec différents paramètres (température, max tokens, system prompt) sans coder.
Prompt libraries : des collections de prompts testĂ©s et optimisĂ©s existent pour chaque cas d’usage. La documentation officielle d’Anthropic (docs.anthropic.com) contient un guide de prompt engineering excellent et mis Ă jour rĂ©gulièrement.
Outils d’Ă©valuation : pour les usages en production, des frameworks comme PromptFoo, LangSmith, et Braintrust permettent de tester systĂ©matiquement des variations de prompts sur des jeux de donnĂ©es et de mesurer la qualitĂ© des rĂ©ponses de manière reproductible.
Combinaison avec des agents IA : en 2026, le prompt engineering ne se limite plus aux chats — les agents comme Claude Code, Cursor, et les workflows n8n utilisent des prompts en coulisses. Comprendre le prompt engineering vous rend plus efficace avec tous ces outils.
Questions fréquentes
Le prompt engineering est-il encore utile avec les modèles de 2026 ?
Plus que jamais. Les modèles sont plus capables, mais la différence entre un bon et un mauvais prompt reste énorme. Un prompt précis et structuré obtient des résultats que même le meilleur modèle ne peut pas produire avec une instruction vague. Le prompt engineering est devenu plus subtil (moins de « hacks », plus de clarté structurelle), mais pas moins important.
Quelle est la différence entre zero-shot et few-shot ?
Zero-shot : vous donnez une instruction sans exemple (« Classifie ce texte comme positif ou nĂ©gatif »). Few-shot : vous donnez 2-5 exemples input/output avant la tâche (« Exemple 1 : ‘Super !’ → Positif. Exemple 2 : ‘Nul.’ → NĂ©gatif. Maintenant classifie : [texte] »). Le few-shot est plus fiable pour les tâches avec un format ou un style spĂ©cifique, car le modèle apprend le pattern Ă partir des exemples.
Comment écrire un bon system prompt ?
Un bon system prompt dĂ©finit clairement le rĂ´le (« Tu es un expert en… »), le style de rĂ©ponse (« Concis, technique, avec des exemples de code »), les contraintes (« Ne propose jamais de solutions qui nĂ©cessitent des dĂ©pendances externes »), et le format (« RĂ©ponds toujours avec : 1) Diagnostic, 2) Solution, 3) PrĂ©vention »). Testez-le sur 5-10 cas d’usage diffĂ©rents pour vĂ©rifier qu’il produit des rĂ©sultats cohĂ©rents.
Les XML tags fonctionnent-ils avec tous les modèles ?
Les XML tags fonctionnent avec tous les modèles majeurs (Claude, GPT, Gemini), mais Claude y est particulièrement sensible et performant — c’est d’ailleurs recommandĂ© dans la documentation officielle d’Anthropic. Pour GPT, les Markdown headers (### Section) et les dĂ©limiteurs («  » » ou —) fonctionnent aussi très bien. L’important est de sĂ©parer clairement les sections de votre prompt, quelle que soit la syntaxe.
Comment apprendre le prompt engineering ?
La meilleure mĂ©thode est la pratique dĂ©libĂ©rĂ©e : prenez une tâche concrète, Ă©crivez un prompt, Ă©valuez le rĂ©sultat, ajustez, et recommencez. Commencez par les 5 principes fondamentaux de ce guide, puis expĂ©rimentez avec le few-shot et le chain-of-thought. Les documentations officielles d’Anthropic et d’OpenAI contiennent d’excellents guides gratuits. En complĂ©ment, les cours de deeplearning.ai sur le prompt engineering (gratuits) sont une rĂ©fĂ©rence.
♟️ Voir aussi : Guide Claude Code | Cursor IDE | GitHub Copilot | Cours API REST | Cours Python

