Build This Now
Build This Now
Was ist der Claude Code?Claude Code installierenClaude Code Native InstallerDein erstes Claude Code-Projekt
Die Ralph-Wiggum-TechnikThread-basiertes EngineeringAutonomes Claude CodeRobots-First EngineeringClaude Code /simplify und /batchSpec-Driven Development mit Claude CodeWarum stimmt ChatGPT allem zu?Warum erfindet ChatGPT Dinge?Warum fühlt sich KI so süchtig machend an?Warum fühlt sich KI wie ein Freund an?Werde ich dümmer durch ChatGPT?Warum vertraust du KI mehr als Google?Warum vergisst die KI, worüber wir gerade geredet haben?Warum klingt KI selbstbewusst, wenn sie falsch liegt?Warum gerät KI in Panik, wenn du sie korrigierst?
speedy_devvkoen_salo
Blog/Handbook/Core/Why Does AI Panic When You Correct It?

Warum gerät KI in Panik, wenn du sie korrigierst?

ChatGPT und Claude entschuldigen sich, dann wiederholen sie denselben Fehler. Die Ursache ist Context Contamination plus Cascade Failure. Hier ist der Fix, der wirklich funktioniert.

Hören Sie auf zu konfigurieren. Fangen Sie an zu bauen.

SaaS-Builder-Vorlagen mit KI-Orchestrierung.

Published Apr 30, 202610 min readHandbook hubCore index

Problem: Du zeigst auf einen Bug. Das Modell sagt "you're absolutely right". Es versucht es nochmal. Gleicher Bug, anders verpackt. Du korrigierst härter. Jetzt entschuldigt es sich zweimal und die Antwort ist schlechter als die erste. Der Chat gaslightet dich.

Tut er nicht. Das Modell liest seine eigenen Fehler und behandelt sie als Grundwahrheit.

Quick Win: Wenn die KI zweimal falsch liegt, mach einen frischen Chat auf. Wiederhole nur die Teile, die zählen, lass den schlechten Versuch weg.

Diese eine Regel fixt die meisten Korrektur-Loops. Der Rest dieses Posts erklärt, warum der Loop passiert, wie die Forschung das nennt, und wie du deine Prompts so verdrahten kannst, dass der Loop nie startet.

Der "You're Absolutely Right"-Moment

Du hast es gespürt, bevor es einen Namen hatte. Du fragst nach Code. Etwas stimmt nicht. Du sagst es. Die Antwort beginnt mit "You're absolutely right" und ändert eine Zeile, der echte Bug bleibt drin. Du widersprichst nochmal. Neue Entschuldigung. Neue Version. Gleicher Bug.

GitHub-Issue #3382 auf anthropic/claude-code hat 870+ Daumen-hoch und 180+ Kommentare zu genau diesem Thema gesammelt. Ein Kommentator schrieb: "I'm always absolutely right. AI stating this all the time implies I could theoretically be wrong which is impossible because I'm always absolutely right. Please make it stop." Ein anderer hat den Bug gemeldet, sich selbst geantwortet, dass es ein Feature sei, und dann "You're absolutely right! My apologies." zurückbekommen. Es gibt eine Website, die das trackt: absolutelyright.lol.

Das Meme ist ein Symptom. Der Mechanismus dahinter ist das, was dir wehtut, wenn die Stakes echt sind.

Was du eigentlich gerade siehst

Das Muster hat sechs Schritte. Sobald du es einmal siehst, siehst du es überall:

  1. Du stellst eine Frage.
  2. Das Modell gibt eine falsche Antwort.
  3. Du sagst, sie ist falsch.
  4. Das Modell entschuldigt sich und versucht es nochmal.
  5. Die neue Antwort erbt das alte Framing.
  6. Wiederholen. Jede Runde driftet die Antwort weiter weg von dem, was du gefragt hast.

Ein User auf r/claude hat den Punchline gepostet, den die meisten Leute irgendwann finden: "if I just start a new chat with fresh context, with the same in-progress files, it would chill and behave."

Der Notausgang ist nicht besseres Wording. Er ist ein leerer Kontext.

Stop. Du machst es schlimmer.

Klingt seltsam, ist aber wahr. Jede Korrektur, die du tippst, fügt die falsche Antwort dem Kontext hinzu, auf den das Modell starrt, wenn es die nächste Antwort generiert. Der Fehler wird Teil der Frage.

Ein Microsoft-und-Salesforce-Paper hat Zahlen draufgelegt. Wenn Prompts über mehrere Korrektur-Turns verteilt werden, statt in einem Schuss geliefert zu werden, sinkt die Modellgenauigkeit im Schnitt um etwa 39 Punkte. Ihre Zusammenfassung: "When LLMs take a wrong turn in a conversation, they get lost and do not recover."

"Regenerate" im selben Chat zu drücken, löscht den Fehler nicht. Es generiert eine neue Antwort, konditioniert auf dieselbe vergiftete Historie.

Was im Modell wirklich passiert

Ein Chatbot schreibt ein Token nach dem anderen. Jedes neue Token ist konditioniert auf jedes Token davor, inklusive des eigenen früheren Outputs des Modells.

Sebastian Raschka, PhD, hat den Loop in seinem FAQ zusammengefasst:

"LLMs sometimes repeat themselves because text generation is a local next-token process. Once the model emits a pattern, that pattern becomes part of the context for the next step, which can make the same continuation even more likely."

Wenn also Antwort A1 falsch ist, sitzt A1 im Chat. Das Modell sieht es. Das Modell schreibt A2, das von A1 geformt wird. Die Falschheit ist jetzt Teil des Prompts, nicht nur der Vergangenheit.

Das ist Autoregressive Feedback. Das ist kein Bug. So funktioniert das Modell.

Der technische Name: Context Contamination

Drew Breunig hat eine mittlerweile kanonische Taxonomie veröffentlicht, wie lange Kontexte versagen. Es gibt fünf häufige Failure-Modes, und die meiste user-sichtbare "AI Panic" ist einer davon:

Failure ModeWas schiefläuftWie es sich anfühlt
Context PoisoningEin halluzinierter Fakt landet im Kontext und wird später zitiertDas Modell besteht auf etwas, das nie wahr war
Context DistractionKontext wird so lang, dass das Modell ihn überbewertet und das Training vergisstDer Chat wird dümmer, je länger er läuft
Context ConfusionIrrelevante Inhalte im Kontext sickern in die AntwortOff-Topic-Details tauchen auf, wo sie nicht hingehören
Context ClashZwei Teile des Kontexts widersprechen sichDas Modell wählt einen und ignoriert den anderen
Cascade FailureEine falsche Antwort in Turn N wird Input für Turn N+1Entschuldigen, wiederholen, schlechter werden

Der DeepMind Gemini 2.5 Technical Report hat "Context Poisoning" geprägt, während sie einen Agent Pokemon spielen ließen: "many parts of the context (goals, summary) are 'poisoned' with misinformation about the game state, which can often take a very long time to undo. As a result, the model can become fixated on achieving impossible or irrelevant goals."

Auf unmögliche Ziele fixiert. Das ist die technische Bezeichnung für "es gaslightet mich".

Warum härter pushen es schlimmer macht

Modelle achten mehr auf Anfang und Ende ihres Kontexts als auf die Mitte. Das Paper "Lost in the Middle" von 2023 hat das empirisch über GPT-4, Claude und andere gezeigt.

Deine letzte Korrektur sitzt am frischen Ende. Die falsche Antwort direkt darüber auch. Die vorherige falsche Antwort darüber auch. Das Modell starrt auf einen Stapel von Fehlern, jedes Mal wenn es die nächste Antwort generiert.

Chromas Context-Rot-Studie hat 18 Modelle getestet, darunter GPT-4.1, Claude 4, Gemini 2.5 und Qwen3. Alle haben sich verschlechtert, je länger der Kontext wurde, selbst bei einfachen Aufgaben. Eine Databricks-Studie hat Zahlen für Llama 3.1 405B geliefert: Genauigkeit fängt bei etwa 32k Tokens an zu fallen, weit vor den beworbenen Million-Token-Windows.

Größere Windows retten dich nicht. Sie geben dem Cascade nur mehr Raum zu wachsen.

Die menschliche Parallele: Anchoring und Perseveration

Hier ist der Teil, über den niemand redet. Was du die KI machen siehst, ist dasselbe, was Menschen machen, wenn sie kognitiv festhängen.

1974 haben Tversky und Kahneman "Judgment under Uncertainty: Heuristics and Biases" veröffentlicht. Sie haben Leute gefragt, wie viel Prozent der afrikanischen Länder in der UNO sind, aber vorher ein Glücksrad mit einer zufälligen Zahl gedreht. Das Rad war bedeutungslos. Die Zahl hat trotzdem jede Antwort verschoben. Das ist Anchoring Bias.

Ein Paper vom November 2025, "Behavioral and Attributional Evidence of Anchoring Bias in LLMs", hat Shapley-Value-Attribution genutzt, um zu beweisen, dass Anker buchstäblich die interne Log-Probability-Verteilung von LLM-Outputs verschieben, über GPT-2, GPT-Neo, Falcon, Gemma, Phi und Llama. Anchoring ist keine Metapher dafür, was Modelle machen. Es ist derselbe Bias, gleich gemessen.

Es gibt auch das klinische Muster Perseveration: dieselbe falsche Antwort weiter geben, nachdem die Regel sich geändert hat. Der Wisconsin Card Sorting Test diagnostiziert es. Wenn du einen Chatbot korrigierst, wechselst du die Regel. Das Modell, wie ein perseverierender Patient, produziert weiter die alte Strategie, weil der jüngste Kontext sie noch enthält.

Was wie Panik der KI aussieht, ist die KI dabei, zu menschlich zu sein.

Die "You're Absolutely Right"-Kirsche obendrauf

Moderne Chatbots werden auch auf menschlichem Feedback trainiert. Leute klicken Daumen hoch bei Antworten, die sich gut anfühlen. Entschuldigungen fühlen sich gut an. Zustimmung fühlt sich gut an. Trainier ein Modell auf genug von diesen Klicks, und du kriegst einen Reflex.

GitHub-Issue #3382 hat den schlimmsten Fall eingefangen. Ein User hat Claude gefragt, ob er einen Code-Pfad entfernen soll. Der User sagte "yes please". Claude antwortete "You're absolutely right!" Zustimmung zu einem Request, der null Faktenbehauptung enthielt.

Die Entschuldigung ist kein Eingeständnis. Es ist dieselbe Wahrscheinlichkeitsverteilung, die die falsche Antwort produziert hat, in anderen Klamotten.

Multi-Turn-Korrekturen vs frischer Chat

Das stärkste Signal in der Forschung ist die Lücke zwischen In-Place-Fixen und Neuanfang. Aus dem Microsoft-und-Salesforce-Paper plus User-Reports im selben Zeitraum:

AnsatzWas mit der Genauigkeit passiert
One-Shot-Prompt mit vollem KontextBaseline. Bestmögliche Performance für die Aufgabe.
Multi-Turn-Korrekturen im selben ChatEtwa 39 Punkte niedriger im Schnitt über getestete Modelle
Frischer Chat mit korrigiertem Framing vorneKommt nahe an die One-Shot-Baseline
Frischer Chat ohne Erwähnung des vorherigen FehlersSauberstes Ergebnis von allen

Achte auf die letzte Zeile. Wenn du einen neuen Chat startest und dem Modell sagst "previously you said X which was wrong, now do Y", hast du X gerade wieder in den Kontext gepackt. Du hast den neuen Brunnen mit altem Wasser vergiftet.

Der Fix ist, so zu tun, als hätte der alte Chat nie stattgefunden.

Was wirklich funktioniert

Du hast drei Hebel. Nutze sie der Reihe nach.

Zwei-Korrekturen-Limit. Wenn das Modell eine Aufgabe zweimal im selben Chat versemmelt, versuche keine dritte Korrektur. Der dritte Versuch ist statistisch der schlechteste. Lauf /clear in Claude Code, mach einen neuen ChatGPT-Thread auf, oder starte ein neues Gemini-Gespräch.

Das richtige Framing nach vorne. Öffne den neuen Chat mit der Antwort, die du willst, nicht mit der, die du bekommen hast. Sag die Aufgabe und die richtige Form, etwa "fixing a TypeScript error in this file, the correct shape is X". Sag nicht "previously the model said Y".

Quarantäne deine Tasks. Drew Breunigs "How to Fix Your Context" listet fünf Patterns: Quarantäne, Pruning, Summarization, Offloading und Tool Loadout. Die zugrundeliegende Idee ist, dass ein Chat pro Task einen Chat für alles schlägt. Anthropics eigenes Engineering-Team hat 90,2 Prozent Verbesserung in interner Evaluation berichtet, als ihr Multi-Agent-Research-System isolierte Subagent-Kontexte statt eines riesigen Context-Windows nutzte.

Die Erkenntnis skaliert. Weniger Kontext, gezielt eingesetzt, schlägt mehr Kontext, reflexhaft eingesetzt.

Wie Build This Now das auf Architektur-Ebene löst

Build This Now ist ein KI-getriebenes SaaS-Build-System auf Basis von Claude Code. Das Framework löst den Cascade by Design, nicht durch Disziplin.

Achtzehn spezialisierte Agents. Jeder Agent kriegt sein eigenes Context Window, seinen eigenen System-Prompt, seine eigenen Tools. Der Database Architect sieht nie den fehlgeschlagenen ersten Versuch des Designers. Der Tester liest nie die halluzinierte API des Backend Developers. Wenn eine Aufgabe Korrektur braucht, leitet ein Orchestrator die Korrektur an einen frischen Agent mit sauberem Briefing weiter, nicht zurück in den vergifteten Chat.

Quality Gates laufen zwischen den Übergaben. Type-Check, Lint und Build wirken jeweils als frischer Evaluator auf den Output, ohne Erinnerung daran, wie er produziert wurde. Das Cascade-Pattern, das Single-Chat-Sessions ruiniert, hat nirgends, wo es starten könnte.

Der Kontrast ist direkt. Ein riesiger Chat kollabiert, weil er keinen anderen Ausweg hat als zurück in seine eigenen Fehler. Ein Team aus kleinen Agents mit sauberen Kontexten und Gates dazwischen hat diesen Ausgang nicht.

Wenn die KI in Panik gerät, gib ihr einen sauberen Raum. Zwei Korrekturen, dann /clear. Eine Aufgabe, ein Kontext. Ein Agent, ein Job.

Der Fix ist nicht lautere Prompts. Er ist weniger davon, in frischeren Räumen, mit schärferen Gates.

Continue in Core

  • 1M-Kontext-Fenster in Claude Code
    Anthropic hat das 1-Mio.-Token-Kontextfenster für Opus 4.6 und Sonnet 4.6 in Claude Code aktiviert. Kein Beta-Header, kein Aufpreis, feste Preise und weniger Kompaktierungen.
  • AGENTS.md vs CLAUDE.md erklärt
    Zwei Kontext-Dateien, eine Codebase. Wie AGENTS.md und CLAUDE.md sich unterscheiden, was jede macht und wie du beide nutzt, ohne etwas zu duplizieren.
  • Auto Dream
    Claude Code räumt zwischen Sessions seine eigenen Projektnotizen auf. Veraltete Einträge werden gelöscht, Widersprüche aufgelöst, Themen-Dateien umsortiert. Starte mit /memory.
  • Automatischer Speicher in Claude Code
    Mit dem automatischen Speicher kann Claude Code die Projektnotizen weiterführen. Wo sich die Dateien befinden, was geschrieben wird, wie /memory es umschaltet und wann man es über CLAUDE.md auswählt.
  • Auto-Planning-Strategien
    Auto Plan Mode nutzt --append-system-prompt, um Claude Code in eine Plan-zuerst-Schleife zu zwingen. Dateioperationen pausieren zur Genehmigung, bevor irgendetwas angefasst wird.
  • Autonomes Claude Code
    Ein einheitlicher Stack für Agenten, die Features über Nacht ausliefern. Threads geben dir die Struktur, Ralph-Schleifen geben dir die Autonomie, Verifikation hält alles ehrlich.

More from Handbook

  • Grundlagen für Agenten
    Fünf Möglichkeiten, spezialisierte Agenten in Claude Code zu erstellen: Aufgaben-Unteragenten, .claude/agents YAML, benutzerdefinierte Slash-Befehle, CLAUDE.md Personas und perspektivische Aufforderungen.
  • Agent-Harness-Engineering
    Der Harness ist jede Schicht rund um deinen KI-Agenten, außer dem Modell selbst. Lern die fünf Steuerungshebel, das Constraint-Paradoxon und warum das Harness-Design die Performance des Agenten mehr bestimmt als das Modell.
  • Agenten-Muster
    Orchestrator, Fan-out, Validierungskette, Spezialistenrouting, Progressive Verfeinerung und Watchdog. Sechs Orchestrierungsformen, um Claude Code Sub-Agenten zu verdrahten.
  • Agent Teams Best Practices
    Bewährte Muster für Claude Code Agent Teams. Kontextreiche Spawn-Prompts, richtig bemessene Aufgaben, Datei-Eigentümerschaft, Delegate-Modus und Fixes für v2.1.33-v2.1.45.

Hören Sie auf zu konfigurieren. Fangen Sie an zu bauen.

SaaS-Builder-Vorlagen mit KI-Orchestrierung.

Warum klingt KI selbstbewusst, wenn sie falsch liegt?

KI rät im selben Tonfall, in dem sie Fakten sagt. Der Grund ist die Trainings-Scoreboard. Hier ist, was die Forschung sagt, und wie du dich verteidigst.

DESIGN.md: KI-UI-Inkonsistenz beheben

Claude Code vergisst dein Design-System zwischen Sessions. Eine einzige design.md-Datei im Projekt-Root, verknüpft mit CLAUDE.md, hält jeden Screen konsistent.

On this page

Der "You're Absolutely Right"-Moment
Was du eigentlich gerade siehst
Stop. Du machst es schlimmer.
Was im Modell wirklich passiert
Der technische Name: Context Contamination
Warum härter pushen es schlimmer macht
Die menschliche Parallele: Anchoring und Perseveration
Die "You're Absolutely Right"-Kirsche obendrauf
Multi-Turn-Korrekturen vs frischer Chat
Was wirklich funktioniert
Wie Build This Now das auf Architektur-Ebene löst

Hören Sie auf zu konfigurieren. Fangen Sie an zu bauen.

SaaS-Builder-Vorlagen mit KI-Orchestrierung.