Chain-of-thought prompting : c’est quoi exactement ?
Le chain-of-thought (CoT) prompting, c’est une technique qui force un LLM à **raisonner étape par étape** avant de répondre. Au lieu de cracher une réponse directe, il décompose le problème, explicite son raisonnement, puis conclut.
Exemple concret
Sans CoT (direct answer) :
User : Si un train roule à 80 km/h pendant 45 minutes, quelle distance parcourt-il ?
IA : 60 km.
Correct, mais tu sais pas comment il est arrivé là. Si c’est faux, tu peux pas debug.
Avec CoT :
User : Si un train roule à 80 km/h pendant 45 minutes, quelle distance parcourt-il ? Pense étape par étape.
IA : Étape 1 : Convertir 45 minutes en heures → 45/60 = 0.75h
Étape 2 : Distance = vitesse × temps
Étape 3 : Distance = 80 × 0.75 = 60 km
Réponse : 60 km.
Même résultat, mais tu vois le raisonnement. Si erreur, tu peux corriger.
Pourquoi ça marche ? (la science derrière)
Les LLMs sont des modèles de prédiction de tokens. Ils génèrent du texte en prédisant le token suivant, encore et encore. Problème :
- Sur des questions simples (« Capitale de la France ? »), une prédiction directe suffit.
- Sur des problèmes complexes (maths, logique, stratégie), sauter direct à la conclusion = erreurs fréquentes.
Le CoT force le modèle à **générer des tokens intermédiaires** (le raisonnement). Ces tokens intermédiaires servent de « mémoire de travail » et améliorent la précision de la conclusion finale.
Résultat mesuré (papier Google, 2022) : +40 à +60% de précision sur des benchmarks de raisonnement (GSM8K, MATH) avec GPT-3. En 2026, avec Claude Opus 4.6 et GPT-5.4, les gains restent significatifs (~20-30% sur des tâches complexes).
Zero-shot CoT vs Few-shot CoT
Zero-shot CoT : « Pense étape par étape »
Le plus simple. Tu ajoutes juste :
« Pense étape par étape. » ou « Let’s think step by step. »
Le modèle décompose automatiquement. Ça marche sur 80% des cas, zéro exemple nécessaire.
Exemple (debug code) :
User : Ce code Python plante avec KeyError. Pourquoi ? Pense étape par étape.
user = users[request.user_id]IA :
Étape 1 : KeyError = la clé n’existe pas dans le dict
Étape 2 : Ça veut dire request.user_id n’est pas dans users
Étape 3 : Soit user_id est invalide, soit users est incomplet
Étape 4 : Solution : ajouter un check ou un .get() avec defaultFix :
user = users.get(request.user_id)ouif request.user_id in users:
Few-shot CoT : montre des exemples
Tu donnes 2-3 exemples de raisonnement CoT, puis tu poses ta question. Le modèle imite le pattern.
Exemple (analyse stratégique) :
Exemple 1 :
Question : Dois-je lancer ma startup en B2B ou B2C ?
Raisonnement :
1. B2B : cycle de vente long, mais LTV élevée, churn faible
2. B2C : acquisition rapide, mais CAC élevé, churn fort
3. Mon produit : outil de productivité → plus adapté B2B (besoin récurrent, budget pro)
Conclusion : B2B.Exemple 2 :
Question : Dois-je self-host ou utiliser le cloud pour mon SaaS ?
Raisonnement :
1. Self-host : coût fixe faible, contrôle total, maintenance lourde
2. Cloud : coût variable, scaling facile, vendor lock-in
3. Mon stage : MVP avec 0 clients → cloud (focus produit, pas infra)
Conclusion : Cloud (switch vers self-host si > 10K users).Ma question :
Dois-je utiliser Next.js ou Astro pour mon blog tech ?IA : (suit le pattern et raisonne similairement)
Le few-shot CoT est plus puissant que le zero-shot, mais coûte plus de tokens (les exemples comptent dans le contexte).
Exemples d’utilisation par domaine
1. Mathématiques et calculs
Problème typique :
Un restaurant a 15 tables. Chaque table accueille 4 personnes. Si 75% des tables sont occupées, combien de clients sont là ?
Sans CoT : L’IA peut se planter (confusion entre tables et personnes).
Avec CoT :
Étape 1 : 75% de 15 tables = 0.75 × 15 = 11.25 → arrondi à 11 tables
Étape 2 : 11 tables × 4 personnes = 44 clients
Réponse : 44 clients.
Précision : quasi 100% sur des problèmes à 2-3 étapes.
2. Analyse de données
Problème :
J’ai 1000 visiteurs/jour, taux de conversion 2%, panier moyen 50€. Si j’améliore le taux à 3%, quel gain mensuel ?
Avec CoT :
Étape 1 : Revenus actuels/jour = 1000 × 0.02 × 50 = 1000€
Étape 2 : Revenus avec 3% = 1000 × 0.03 × 50 = 1500€
Étape 3 : Gain/jour = 1500 – 1000 = 500€
Étape 4 : Gain/mois = 500 × 30 = 15 000€
Réponse : +15K€/mois.
3. Debug de code
Problème :
Mon API Next.js retourne 500. Logs : "Cannot read property ‘id’ of undefined". Pourquoi ?
Avec CoT :
Étape 1 : "Cannot read property ‘id’ of undefined" = tu accèdes à .id sur un objet qui est undefined
Étape 2 : Dans Next.js API, souvent causé par req.body ou req.query undefined
Étape 3 : Vérifie : as-tu parsé le body ? (app.use(express.json()))
Étape 4 : Vérifie : méthode HTTP correcte ? (POST attendu, GET reçu → body vide)
Étape 5 : Solution probable : ajouter validation avant d’accéder à .idFix suggéré :
if (!req.body || !req.body.id) return res.status(400).json({error: "Missing id"});
4. Stratégie business
Problème :
Dois-je lancer un freemium ou un paywall direct pour mon SaaS de gestion de projets ?
Avec CoT :
Étape 1 : Freemium = acquisition rapide, mais conversion faible (2-5% typique)
Étape 2 : Paywall direct = acquisition lente, mais users payants dès le début
Étape 3 : Mon marché : gestion de projets = très concurrentiel (Asana, Notion, etc.)
Étape 4 : Ma différenciation : intégration IA native (unique)
Étape 5 : Stratégie : freemium pour tester l’IA (hook), puis paywall pour features avancées
Conclusion : Freemium avec limite claire (ex: 5 projets gratuits, puis 0/mois).
5. Rédaction structurée
Problème :
Écris un email de cold outreach pour vendre mon outil de SEO à des agences.
Avec CoT :
Étape 1 : Identifier le pain point des agences → clients exigent des résultats SEO rapides
Étape 2 : Positionner mon outil → automatise l’audit + recommandations IA
Étape 3 : Preuve sociale → "utilisé par + de 50 agences"
Étape 4 : CTA clair → "démo 15 min ?"Email généré :
Objet : [Agence] perd 10h/semaine sur les audits SEO ?Salut [Prénom],
J’ai vu que [Agence] gère des clients e-commerce. Un pain récurrent : les audits SEO manuels prennent un temps fou.
On a build [Outil] : audits automatisés + recommandations IA en 5 min. + de 50 agences l’utilisent déjà (dont [Référence]).
15 min de démo pour voir si ça fit ?
[Signature]
Tree-of-thought (ToT) : la version avancée
Le chain-of-thought suit un raisonnement linéaire (A → B → C → conclusion). Le tree-of-thought explore plusieurs branches en parallèle, évalue chacune, puis choisit la meilleure.
Exemple (problème complexe)
User : Comment optimiser le chargement de mon site Next.js ? Explore 3 approches différentes, puis choisis la meilleure.
IA (ToT) :
Branche 1 : Optimiser les images
– Next/Image avec lazy loading
– WebP + AVIF
– Gain potentiel : -30% de poids
– Complexité : faible
– Coût : 0€Branche 2 : Edge caching (Vercel/Cloudflare)
– Cache static pages at edge
– Gain potentiel : -50% de latence
– Complexité : moyenne
– Coût : 20€/moisBranche 3 : Code splitting + dynamic imports
– Lazy load components non-critiques
– Gain potentiel : -20% de bundle size
– Complexité : haute (refacto)
– Coût : 0€ mais temps devÉvaluation :
– Si budget serré + besoin rapide → Branche 1 (images)
– Si site à fort trafic international → Branche 2 (edge cache)
– Si bundle size > 500KB → Branche 3 (code splitting)Recommandation : Commence par Branche 1 (quick win), puis Branche 2 si trafic scale, enfin Branche 3 si nécessaire.
Le ToT est plus coûteux en tokens (3 branches = 3x plus de texte), mais donne des solutions plus robustes sur des problèmes ambigus.
Quand utiliser CoT (et quand c’est overkill)
Utilise CoT quand :
- Le problème nécessite plusieurs étapes de raisonnement (maths, logique, stratégie)
- Tu veux comprendre le raisonnement (debug, audit, validation)
- Le modèle se plante souvent en mode direct (problèmes ambigus, edge cases)
- Tu codes des agents IA qui doivent planifier (CoT = planning explicite)
N’utilise PAS CoT quand :
- Réponse factuelle simple ("Capitale de l’Italie ?" → pas besoin de raisonnement)
- Génération créative pure (écrire une histoire, brainstormer des noms de produit)
- Tu veux la réponse la plus rapide (CoT = plus de tokens = plus lent + plus cher)
- Volume élevé de requêtes simples (chatbot FAQ, modération de contenu basique)
Optimisations et astuces
1. Combine CoT + system prompt
Mets le CoT dans le system prompt pour éviter de le répéter à chaque requête :
System : Tu es un assistant analytique. Avant de répondre, décompose toujours le problème étape par étape. Puis donne ta conclusion.
User : [question complexe]
IA : [raisonne automatiquement en CoT]
2. Force le format avec XML/JSON
Si tu veux parser le raisonnement programmatiquement :
Réponds en JSON :
{
"steps": ["étape 1", "étape 2", …],
"conclusion": "…"
}
3. CoT caché (hidden reasoning)
Claude Opus 4.6 et GPT-5.4 ont un mode « thinking » où le raisonnement n’est pas montré à l’utilisateur (mais influe sur la réponse). Utile pour les UIs grand public où tu veux juste la conclusion.
4. Self-consistency : génère plusieurs CoT, choisis la réponse majoritaire
Pour des problèmes critiques (calculs financiers, décisions importantes), génère 5 raisonnements CoT indépendants. Si 4/5 arrivent à la même conclusion, c’est probablement correct. Si divergence, flag pour revue humaine.
Limites du CoT
1. Coût en tokens
Un raisonnement CoT = 2-5x plus de tokens qu’une réponse directe. Sur du volume (10K requêtes/jour), ça chiffre vite.
Solution : Use CoT que sur les requêtes complexes. Détecte la complexité avec un modèle léger (GPT-5.2), puis route vers CoT si nécessaire.
2. Hallucinations dans les étapes
Le modèle peut raisonner parfaitement… à partir d’une prémisse fausse. Exemple :
Étape 1 : La Terre est plate (FAUX)
Étape 2 : Donc les avions volent en ligne droite sur une surface plane
Conclusion : [cohérente mais basée sur une hallucination]
Solution : Valide les faits critiques avant le raisonnement. Use Perplexity ou ChatGPT Search pour fact-check.
3. Over-engineering
Parfois, le modèle sur-complique. Exemple :
Question : 2 + 2 ?
CoT : Étape 1 : Analysons l’addition en base 10…
[5 lignes de raisonnement pour un truc évident]
Solution : Ajoute dans le prompt : "Si la question est simple, réponds directement sans décomposer."
Cas d’usage réels en 2026
1. Coding agents (Cursor, Copilot)
Le CoT force l’agent à planifier avant de coder :
Étape 1 : Identifier les fichiers à modifier
Étape 2 : Vérifier les dépendances (imports, types)
Étape 3 : Écrire le code
Étape 4 : Ajouter les tests
Étape 5 : Vérifier que ça compile
Résultat : moins de bugs, code plus cohérent.
2. Automatisation de décisions business
Pipeline n8n qui décide si un lead est qualifié :
Webhook (nouveau lead) → Claude CoT (analyse profil : budget, fit, urgence) → Score 0-10 → Route vers sales si > 7
3. Analyse de risques (finance, légal)
Avant de signer un contrat, l’IA analyse en CoT :
Étape 1 : Clauses inhabituelles ?
Étape 2 : Conditions de sortie ?
Étape 3 : Risques financiers ?
Conclusion : OK / Review humaine nécessaire
Verdict
Le chain-of-thought prompting, c’est la technique qui transforme un LLM de « générateur de texte » à « assistant qui réfléchit ». Sur des problèmes complexes, c’est un game-changer : +20 à +60% de précision selon la tâche.
Quand l’utiliser :
- Maths, logique, stratégie, debug, analyse
- Agents IA qui planifient
- Décisions critiques (finance, légal, sécu)
Quand l’éviter :
- Questions factuelles simples
- Génération créative pure
- Volume élevé + budget tokens serré
En 2026, les modèles comme Claude Opus 4.6 intègrent le CoT nativement (mode « thinking »). Mais comprendre le principe reste crucial pour optimiser tes prompts et tes workflows.
Combine CoT avec de bons system prompts, et tu as une stack IA solide pour 90% des use cases complexes.
Pour aller plus loin, checke notre guide prompt engineering 2026 et notre comparatif meilleurs outils IA.
Questions fréquentes sur le chain-of-thought prompting
Le chain-of-thought, c’est quoi exactement ?
C’est une technique où vous demandez à l’IA d’expliquer son raisonnement étape par étape avant de donner la réponse finale. Comme faire réfléchir l’IA à voix haute. Améliore significativement la qualité des réponses complexes.
Quand utiliser le chain-of-thought ?
Pour les problèmes mathématiques, logiques, de planification ou nécessitant plusieurs étapes de raisonnement. Pas utile pour des questions simples factuelles. Plus le problème est complexe, plus le CoT apporte de valeur.
Chain-of-thought vs zero-shot : quelle différence ?
Zero-shot = poser la question directement sans exemple. Chain-of-thought = demander de détailler le raisonnement. Le CoT réduit les erreurs logiques de 30 à 50 % sur les tâches complexes, mais coûte plus de tokens.
Le chain-of-thought fonctionne-t-il avec Claude ?
Oui, très bien. Claude a même tendance à faire du CoT naturellement sans qu’on le demande. Pour forcer le comportement, ajoutez « Explique ton raisonnement étape par étape » dans votre prompt. Fonctionne aussi avec GPT et autres modèles avancés.