Build This Now
Build This Now
Qu'est-ce que le code Claude ?Installer Claude CodeL'installateur natif de Claude CodeTon premier projet Claude Code
La Technique Ralph WiggumL'ingénierie par threadsClaude Code AutonomeL'ingénierie robots-firstClaude Code /simplify et /batchLe développement piloté par spec avec Claude CodePourquoi ChatGPT est-il toujours d'accord avec toi ?Pourquoi ChatGPT invente-t-il des trucs ?Pourquoi l'IA est-elle aussi addictive ?Pourquoi l'IA donne-t-elle l'impression d'un ami ?Pourquoi je deviens plus con à cause de ChatGPT ?Pourquoi tu fais plus confiance à l'IA qu'à Google ?Pourquoi l'IA oublie ce qu'on vient de se dire ?Pourquoi l'IA a l'air si sûre d'elle quand elle se plante ?Pourquoi l'IA panique quand tu la corriges ?
speedy_devvkoen_salo
Blog/Handbook/Core/Why Does AI Panic When You Correct It?

Pourquoi l'IA panique quand tu la corriges ?

ChatGPT et Claude s'excusent, puis répètent la même erreur. La cause, c'est la contamination de contexte plus l'effet cascade. Voici le fix qui marche vraiment.

Arrêtez de configurer. Commencez à construire.

Templates SaaS avec orchestration IA.

Published Apr 30, 202610 min de lectureHandbook hubCore index

Problème : tu signales un bug. Le modèle dit "you're absolutely right". Il retente. Même bug, autre déguisement. Tu corriges plus fort. Maintenant il s'excuse deux fois et la réponse est pire que la première. Le chat te gaslighte.

Non. Le modèle relit ses propres erreurs et les traite comme une vérité de base.

La technique rapide : quand l'IA se trompe deux fois, ouvre un nouveau chat. Répète juste les parties qui comptent, laisse le mauvais essai de côté.

Cette seule règle répare la majorité des boucles de correction. Le reste de ce post explique pourquoi la boucle se déclenche, comment la recherche l'appelle, et comment câbler tes prompts pour qu'elle ne démarre jamais.

Le moment "you're absolutely right"

Tu l'as senti avant de savoir comment ça s'appelle. Tu demandes du code. Quelque chose cloche. Tu le dis. La réponse s'ouvre par "You're absolutely right" et change une ligne, en laissant le vrai bug. Tu reviens à la charge. Nouvelle excuse. Nouvelle version. Même bug.

L'issue GitHub #3382 sur anthropic/claude-code a récolté plus de 870 thumbs-up et plus de 180 commentaires sur exactement ça. Un commentateur a écrit : "I'm always absolutely right. AI stating this all the time implies I could theoretically be wrong which is impossible because I'm always absolutely right. Please make it stop." Un autre a ouvert le bug, s'est répondu lui-même que c'était une feature, et a reçu "You're absolutely right! My apologies." en retour. Il y a un site qui suit ça : absolutelyright.lol.

Le mème est un symptôme. Le mécanisme dessous, c'est ce qui te fait mal quand l'enjeu est réel.

Ce que tu regardes vraiment

Le pattern fait six étapes. Une fois que tu l'as vu, tu le vois partout :

  1. Tu poses une question.
  2. Le modèle donne une mauvaise réponse.
  3. Tu dis que c'est faux.
  4. Le modèle s'excuse et retente.
  5. La nouvelle réponse hérite du cadrage précédent.
  6. Boucle. À chaque tour, la réponse dérive plus loin de ce que tu demandais.

Un user sur r/claude a posté la chute que la plupart finissent par trouver : "if I just start a new chat with fresh context, with the same in-progress files, it would chill and behave."

L'issue de secours, c'est pas une meilleure formulation. C'est un contexte vide.

Stop. Tu empires les choses.

Contre-intuitif mais vrai. Chaque correction que tu tapes ajoute la mauvaise réponse au contexte que le modèle fixe en générant la suivante. L'erreur fait partie de la question.

Un papier de Microsoft et Salesforce a chiffré ça. Quand les prompts sont éclatés sur plusieurs corrections multi-tours au lieu d'être livrés d'un coup, la précision du modèle chute d'environ 39 points en moyenne. Leur résumé : "When LLMs take a wrong turn in a conversation, they get lost and do not recover."

Cliquer "regenerate" dans le même chat n'efface pas l'erreur. Ça génère une nouvelle réponse conditionnée sur le même historique empoisonné.

Ce qui se passe vraiment dans le modèle

Un chatbot écrit un token à la fois. Chaque nouveau token est conditionné sur tous les tokens d'avant, y compris la sortie précédente du modèle lui-même.

Sebastian Raschka, PhD, a résumé la boucle dans sa FAQ :

"LLMs sometimes repeat themselves because text generation is a local next-token process. Once the model emits a pattern, that pattern becomes part of the context for the next step, which can make the same continuation even more likely."

Donc quand la réponse A1 est fausse, A1 est dans le chat. Le modèle la voit. Le modèle écrit A2, qui est façonnée par A1. La fausseté fait désormais partie du prompt, pas juste du passé.

C'est du feedback autorégressif. C'est pas un bug. C'est comme ça que le modèle marche.

Le nom technique : context contamination

Drew Breunig a publié une taxonomie devenue canonique des modes d'échec des longs contextes. Il y a cinq modes courants, et la plupart des "panique IA" visibles côté user en fait partie :

Mode d'échecCe qui foireCe que tu ressens
Context poisoningUn fait halluciné entre dans le contexte et est cité plus tardLe modèle insiste sur quelque chose qui n'a jamais été vrai
Context distractionLe contexte devient si long que le modèle le surpondère et oublie son entraînementLe chat devient plus bête à mesure qu'il dure
Context confusionDu contenu hors-sujet dans le contexte déteint sur la réponseDes détails à côté apparaissent là où ils ne devraient pas
Context clashDeux parties du contexte se contredisentLe modèle en choisit une et ignore l'autre
Cascade failureUne mauvaise réponse au tour N devient l'entrée du tour N+1Excuses, répétitions, et ça empire

Le rapport technique de DeepMind sur Gemini 2.5 a forgé "context poisoning" en regardant un agent jouer à Pokemon : "many parts of the context (goals, summary) are 'poisoned' with misinformation about the game state, which can often take a very long time to undo. As a result, the model can become fixated on achieving impossible or irrelevant goals."

Fixé sur des objectifs impossibles. C'est l'expression technique pour "il me gaslighte".

Pourquoi pousser plus fort empire les choses

Les modèles font plus attention au début et à la fin de leur contexte qu'au milieu. Le papier de 2023 "Lost in the Middle" l'a montré empiriquement sur GPT-4, Claude et d'autres.

Ta dernière correction est tout au bout récent. La mauvaise réponse juste au-dessus aussi. La précédente mauvaise réponse au-dessus aussi. Le modèle fixe une pile d'échecs à chaque fois qu'il génère la réplique suivante.

L'étude Context Rot de Chroma a testé 18 modèles, dont GPT-4.1, Claude 4, Gemini 2.5 et Qwen3. Tous ont dégradé quand le contexte grossissait, même sur des tâches simples. Une étude Databricks a chiffré ça sur Llama 3.1 405B : la précision commence à chuter vers 32k tokens, très en deçà des fenêtres million-tokens annoncées.

Les fenêtres plus grandes ne te sauvent pas. Elles donnent juste plus de place à la cascade pour grandir.

Le parallèle humain : ancrage et persévération

Voici la partie dont personne ne parle. Ce que tu regardes l'IA faire, c'est exactement ce que les humains font quand ils sont coincés cognitivement.

En 1974, Tversky et Kahneman ont publié "Judgment under Uncertainty: Heuristics and Biases." Ils ont demandé aux gens quel pourcentage de pays africains étaient à l'ONU, mais en faisant d'abord tourner une roue affichant un nombre aléatoire. La roue n'avait aucun sens. Le nombre déplaçait quand même chaque réponse. C'est le biais d'ancrage.

Un papier de novembre 2025, "Behavioral and Attributional Evidence of Anchoring Bias in LLMs", a utilisé l'attribution Shapley pour prouver que les ancres décalent littéralement la distribution interne de log-probabilité des sorties LLM sur GPT-2, GPT-Neo, Falcon, Gemma, Phi et Llama. L'ancrage n'est pas une métaphore de ce que font les modèles. C'est le même biais, mesuré de la même façon.

Il y a aussi le pattern clinique appelé persévération : continuer la même mauvaise réponse après que la règle a changé. Le test de tri des cartes du Wisconsin diagnostique ça. Quand tu corriges un chatbot, tu changes la règle. Le modèle, comme un sujet qui persévère, continue de produire l'ancienne stratégie parce que le contexte récent la contient toujours.

Ce qui ressemble à une IA en panique, c'est l'IA qui est trop humaine.

La cerise "you're absolutely right" sur le gâteau

Les chatbots modernes sont aussi entraînés sur du feedback humain. Les gens cliquent thumbs-up sur les réponses qui font du bien. Les excuses, ça fait du bien. L'accord, ça fait du bien. Entraîne un modèle sur assez de ces clics et tu obtiens un réflexe.

L'issue GitHub #3382 a chopé le pire cas. Un user a demandé à Claude s'il fallait virer un chemin de code. Le user a dit "yes please". Claude a répondu "You're absolutely right!" En accord avec une demande qui ne contenait aucun fait à valider.

L'excuse n'est pas un aveu. C'est la même distribution de probabilité qui a produit la mauvaise réponse, en habits différents.

Corrections multi-tours vs nouveau chat

Le signal le plus fort dans la recherche, c'est l'écart entre corriger en place et tout reprendre. D'après le papier Microsoft / Salesforce et les retours users dans la même fenêtre :

ApprocheCe qui arrive à la précision
Prompt one-shot avec contexte completBaseline. Performance optimale pour la tâche.
Corrections multi-tours dans le même chatEnviron 39 points de moins en moyenne sur les modèles testés
Nouveau chat avec le bon cadrage en têteRevient près de la baseline one-shot
Nouveau chat sans mention de l'échec passéLe résultat le plus propre de tous

Note la dernière ligne. Si tu démarres un nouveau chat et que tu dis au modèle "tu avais dit X, c'était faux, fais Y maintenant", tu viens de remettre X dans le contexte. Tu as empoisonné le nouveau puits avec la vieille eau.

Le fix, c'est de faire comme si l'ancien chat n'avait jamais existé.

Ce qui marche vraiment

Tu as trois leviers. Utilise-les dans l'ordre.

Limite à deux corrections. Si le modèle rate une tâche deux fois dans le même chat, ne tente pas une troisième correction. Le troisième essai est statistiquement le pire. Lance /clear dans Claude Code, ouvre un nouveau thread ChatGPT, ou démarre une nouvelle conversation Gemini.

Mets le bon cadrage en tête. Ouvre le nouveau chat avec la réponse que tu veux, pas avec celle que tu as eue. Énonce la tâche et la forme correcte, du genre "fixer une erreur TypeScript dans ce fichier, la forme correcte est X". Ne dis pas "le modèle avait dit Y avant".

Mets tes tâches en quarantaine. Le "How to Fix Your Context" de Drew Breunig liste cinq patterns : quarantaine, élagage, résumé, déchargement, et chargement d'outils. L'idée commune, c'est qu'un chat par tâche bat un chat pour tout. L'équipe engineering d'Anthropic a rapporté un gain de 90,2 pour cent à l'éval interne quand son système de recherche multi-agents a utilisé des contextes sub-agents isolés au lieu d'une seule grosse fenêtre.

Le constat tient à toutes les échelles. Moins de contexte, appliqué avec intention, bat plus de contexte appliqué par réflexe.

Comment Build This Now résout ça au niveau de l'archi

Build This Now est un système de build SaaS piloté par IA qui tourne sur Claude Code. Le framework résout la cascade par design, pas par discipline.

Dix-huit agents spécialistes. Chaque agent a sa propre fenêtre de contexte, son propre system prompt, ses propres outils. Le Database Architect ne voit jamais le premier essai raté du Designer. Le Tester ne lit jamais l'API hallucinée du Backend Developer. Quand une tâche a besoin d'être corrigée, un orchestrateur route la correction vers un nouvel agent avec un brief propre, pas dans le chat contaminé.

Des quality gates tournent entre les passages. Type-check, lint et build agissent comme un évaluateur frais sur la sortie, sans mémoire de comment elle a été produite. Le pattern de cascade qui ruine les sessions à un seul chat n'a nulle part où démarrer.

Le contraste est direct. Un grand chat unique s'effondre parce qu'il n'a nulle part où aller, à part dans ses propres erreurs. Une équipe de petits agents avec des contextes propres et des gates entre eux n'a pas cette issue.

Quand l'IA panique, tu lui donnes une pièce propre. Deux corrections, puis /clear. Une tâche, un contexte. Un agent, un boulot.

Le fix, c'est pas des prompts plus forts. C'est moins de prompts, dans des pièces plus fraîches, avec des gates plus tranchés.

Continue in Core

  • La Fenêtre de Contexte 1M dans Claude Code
    Anthropic a activé la fenêtre de contexte 1M tokens pour Opus 4.6 et Sonnet 4.6 dans Claude Code. Sans header beta, sans surcharge, tarification fixe, et moins de compactions.
  • AGENTS.md vs CLAUDE.md : expliqué
    Deux fichiers de contexte, une seule base de code. Comment AGENTS.md et CLAUDE.md diffèrent, ce que chacun fait, et comment utiliser les deux sans rien dupliquer.
  • Auto Dream
    Claude Code nettoie ses propres notes de projet entre les sessions. Les entrées obsolètes sont supprimées, les contradictions résolues, les fichiers thématiques réorganisés. Lance /memory.
  • Mémoire automatique dans le code Claude
    La mémoire automatique permet à Claude Code de conserver des notes de projet en cours. Où se trouvent les fichiers, ce qui est écrit, comment /memory le fait basculer, et quand le choisir par rapport à CLAUDE.md.
  • Stratégies d'auto-planning
    Le mode Auto Plan utilise --append-system-prompt pour forcer Claude Code dans une boucle plan-d'abord. Les opérations sur les fichiers sont mises en pause pour approbation avant de toucher quoi que ce soit.
  • Claude Code Autonome
    Une stack unifiée pour des agents qui livrent des fonctionnalités la nuit. Les threads te donnent la structure, les boucles Ralph te donnent l'autonomie, la vérification garde ça honnête.

More from Handbook

  • Principes de base de l'agent
    Cinq façons de construire des agents spécialisés dans le code Claude : Sous-agents de tâches, .claude/agents YAML, commandes slash personnalisées, personas CLAUDE.md, et invites de perspective.
  • L'ingénierie du harness agent
    Le harness, c'est toutes les couches autour de ton agent IA sauf le modèle lui-même. Découvre les cinq leviers de contrôle, le paradoxe des contraintes, et pourquoi le design du harness détermine les performances de l'agent bien plus que le modèle.
  • Patterns d'agents
    Orchestrateur, fan-out, chaîne de validation, routage par spécialiste, raffinement progressif, et watchdog. Six formes d'orchestration pour câbler des sub-agents Claude Code.
  • Meilleures pratiques des équipes d'agents
    Patterns éprouvés pour les équipes d'agents Claude Code. Prompts de création riches en contexte, tâches bien calibrées, propriété des fichiers, mode délégué, et correctifs v2.1.33-v2.1.45.

Arrêtez de configurer. Commencez à construire.

Templates SaaS avec orchestration IA.

Pourquoi l'IA a l'air si sûre d'elle quand elle se plante ?

L'IA balance ses suppositions du même ton qu'elle balance des faits. La cause, c'est le tableau de score d'entraînement. Voici ce que dit la recherche, et comment te défendre.

DESIGN.md : Résoudre l'incohérence UI avec Claude Code

Claude Code oublie ton design system entre les sessions. Un seul fichier design.md à la racine du projet, référencé dans CLAUDE.md, garde chaque écran cohérent.

On this page

Le moment "you're absolutely right"
Ce que tu regardes vraiment
Stop. Tu empires les choses.
Ce qui se passe vraiment dans le modèle
Le nom technique : context contamination
Pourquoi pousser plus fort empire les choses
Le parallèle humain : ancrage et persévération
La cerise "you're absolutely right" sur le gâteau
Corrections multi-tours vs nouveau chat
Ce qui marche vraiment
Comment Build This Now résout ça au niveau de l'archi

Arrêtez de configurer. Commencez à construire.

Templates SaaS avec orchestration IA.