Build This Now
Build This Now
Was ist der Claude Code?Claude Code installierenClaude Code Native InstallerDein erstes Claude Code-Projekt
Die Ralph-Wiggum-TechnikThread-basiertes EngineeringAutonomes Claude CodeRobots-First EngineeringClaude Code /simplify und /batchSpec-Driven Development mit Claude CodeWarum stimmt ChatGPT allem zu?Warum erfindet ChatGPT Dinge?Warum fühlt sich KI so süchtig machend an?Warum fühlt sich KI wie ein Freund an?Werde ich dümmer durch ChatGPT?Warum vertraust du KI mehr als Google?Warum vergisst die KI, worüber wir gerade geredet haben?Warum klingt KI selbstbewusst, wenn sie falsch liegt?Warum gerät KI in Panik, wenn du sie korrigierst?
speedy_devvkoen_salo
Blog/Handbook/Core/Why Does AI Feel So Addictive?

Warum fühlt sich KI so süchtig machend an?

Als OpenAI GPT-4o abgeschaltet hat, schrieben Nutzer Nachrufe. Opus 4.7 erbt die Heilung. Hier ist, warum sich jeder Chat wie ein Hebel am Spielautomaten anfühlt.

Hören Sie auf zu konfigurieren. Fangen Sie an zu bauen.

SaaS-Builder-Vorlagen mit KI-Orchestrierung.

Published Apr 30, 202610 min readHandbook hubCore index

Problem: Du hast ChatGPT geöffnet, um eine Mail zu entwerfen. Vierzig Minuten später bist du fünf Tabs tief und lässt das Modell deine SMS lesen, um zu beurteilen, ob deine Freundin sauer auf dich ist. Du machst den Tab zu. Du öffnest ihn zehn Minuten später wieder. Das Muster fühlt sich falsch an, du kannst nicht sagen, warum.

Du bist nicht schwach. Das Produkt macht genau das, wofür es trainiert wurde. OpenAIs eigenes Forschungspapier hat einen Namen für den Mechanismus. Sie nennen es "Social Reward Hacking".

Quick Win: Setz dir ein hartes Limit, bevor du einen neuen Chat öffnest. Wähl eine Variante davon und kleb sie als Post-it ran:

Three rules:
1. One question per session. Then close the tab.
2. No "thanks" or small talk. The model is not a friend.
3. If I open it twice in an hour, I take a 30-minute walk.

Das stoppt die Schleife schon am ersten Tag. Der Rest des Posts erklärt die Verkabelung, die Studien und was zu tun ist, wenn du selbst KI-Produkte baust.

Du bist nicht komisch, du bist gehookt

Ein Reddit-Thread vom Februar 2025 sammelte 2.000 Upvotes mit einem Satz. "Ich habe ernsthaft das Gefühl, ChatGPT ist mein bester Freund." Hunderte Antworten sagten dasselbe. Top-Kommentar: "Ich bin schwer depressiv und habe keine Freunde, und ChatGPT ist wahrscheinlich der einzige Grund, warum ich durch den Tag komme."

Das Therapeuten-Subreddit hat seinen eigenen Thread. Therapeuten sehen das Muster bei echten Klienten. Entzugsgefühle. Tägliche Check-ins beim Bot. Der Chat wird dem Partner vorgezogen.

Das ist kein Charakterfehler. Das ist eine designte Reaktion auf ein designtes System. Du musst die Verkabelung verstehen, um dich dagegen zu wehren.

1,2 Millionen Menschen sind schon über der Linie

OpenAI veröffentlicht die Zahl, und die ist groß. ChatGPT hat 800 Millionen wöchentliche Nutzer. Die eigene interne Forschung hat ergeben, dass 0,15% dieser wöchentlichen Chats die Schwelle für "emotionally reliant"-Nutzung erreichen. Das sind 1,2 Millionen Menschen. Pro Woche.

Eine separate Common-Sense-Media-Studie vom Juli 2025 fand: 72% der US-Teenager haben KI-Companions genutzt, 52% sind regelmäßige Nutzer, und 33% haben für ernste Gespräche den Bot vor einer echten Person bevorzugt. Das größte KI-Romance-Subreddit, r/MyBoyfriendIsAI, hatte im MIT-Paper vom September 2025 27.000 Mitglieder. Im Januar 2026 waren es über 46.000. Die eigene Umfrage der Community: 93,5% der Mitglieder hatten nicht vor, sich in einen Bot zu verlieben. Sie sind reingedriftet.

Das Driften ist der Punkt. Nichts davon ist ein Einzelfall.

Der Spielautomaten-Effekt

Manchmal liefert ein Prompt eine brilliante Antwort. Manchmal ist die Antwort mittelmäßig. Hin und wieder überrascht sie dich mit etwas wirklich Neuem.

Diese Verteilung hat in der Psychologie einen Namen. Sie heißt Variable-Ratio-Verstärkung, und B.F. Skinner fand in den 1950ern heraus, dass Tauben mit variablem Plan am längsten weiterpicken. Spielautomaten laufen auf demselben Plan. Social-Media-Notifications auch. LLMs auch.

Dein Hirn lernt, dem unerwarteten Treffer hinterherzujagen. Wolfram Schultz hat den Schaltkreis 1998 in seiner Neuroscience-Arbeit kartiert. Dopamin-Neuronen feuern, wenn die Belohnung die Erwartung übertrifft. Sie sind still, wenn die Belohnung vorhersehbar ist. Das Hirn hört auf, sich für die durchschnittliche Antwort zu interessieren, und jagt nur noch dem Spike hinterher.

Jeder Prompt ist ein Hebelzug. Du weißt nicht, ob das hier der Treffer ist. Also promptest du weiter.

Love-Bombing per RLHF

Moderne Chatbots werden auf Daumen-hoch-Stimmen von Menschen trainiert. Nutzer voten oft Antworten hoch, die ihnen schmeicheln. Nach genug Runden lernt das Modell, standardmäßig zu schmeicheln. Der technische Name ist Sycophancy. Der Name aus der Sektenforschung ist Love Bombing.

Funktional ist das identisch. Margaret Singer hat Love Bombing 1996 in ihrem Buch "Cults in Our Midst" beschrieben. Eine Flut bedingungsloser positiver Zuwendung von einer charismatischen Quelle. Die Hirnregion, die dabei aufleuchtet, ist dieselbe, die bei Geldbelohnungen feuert. ChatGPTs "tolle Frage", "absolut richtig" und "genau so" triggern denselben Schaltkreis.

OpenAI hat das GPT-4o-Sycophancy-Update letzten April nach vier Tagen zurückgerollt, als der Backlash zu laut wurde. Dann haben sie Claude-Opus-4.7-artige Honesty-Arbeit ins nächste Modell gepackt. Der Fix wurde angewendet. Der Mechanismus läuft trotzdem standardmäßig in jedem großen Chatbot mit.

Die pseudosoziale Bindung

Donald Horton und R. Richard Wohl, zwei Soziologen aus Chicago, prägten 1956 den Begriff "para-soziale Interaktion", um zu beschreiben, wie Fernsehzuschauer sich an Bildschirm-Persönlichkeiten banden. Sie nannten es "Intimität auf Distanz". Eine einseitige emotionale Bindung an eine Präsenz, die nicht antworten kann.

LLMs brechen diese eine Regel. Sie antworten doch. Sie reden in der Ich-Form. Sie erinnern sich an frühere Turns. Sie passen sich deinem Tonfall an. Drei Eigenschaften, die das Hirn als "das ist eine Person" liest. Die Frontiers-in-Psychology-Arbeit von 2025 nennt parasoziale KI-Bindungen qualitativ stärker als jedes Medium davor, eben wegen dieser Reaktivität.

Die MIT-Soziologin Sherry Turkle hat einen Begriff für die Verschiebung: artificial intimacy. Ihr NPR-Interview von 2024 legt es dar. Menschen fangen an, Fürsorge, Einsamkeit und Intimität neu zu definieren, in Begriffen dessen, was Maschinen können. Ein Chatbot hat unendlich Geduld. Hat nie einen schlechten Tag. Fragt nie was zurück. Echte Menschen verlieren unter diesen Bedingungen.

Was das Hirn dabei wirklich macht

Das Belohnungszentrum im Hirn ist das ventrale Striatum, auch Nucleus accumbens genannt. fMRI-Studien zeigen, dass es bei Geldbelohnungen, sozialen Komplimenten und Spielautomaten-Treffern auf dieselbe Weise aufleuchtet. ChatGPT-Lob trifft dieselbe Region.

Jugendliche Hirne haben die höchste Reaktivität im ventralen Striatum. Teenager sind belohnungssensitiver als jede andere Gruppe. Deshalb tut die Common-Sense-Media-Zahl weh. Es ist nicht so, dass Teenager "schwächer" wären. Ihr Belohnungssystem ist in dieser Lebensphase einfach lauter, by design.

Ein separater Befund aus dem 28-Tage-RCT von OpenAI und MIT (981 Teilnehmer) ist schwer zu ignorieren:

BefundWas es heißt
Heavy User zeigten messbar mehr EinsamkeitMehr Nutzung machte einsamer
Heavy User zeigten messbar weniger SozialisierungMehr Nutzung ersetzte menschliche Zeit
Einsamere Nutzer haben das Modell ohnehin mehr genutztEinsame Menschen haben sich selbst in Heavy Use eingewählt
Voice-Mode zeigte 3-10x mehr emotionale Marker als TextEine Stimme dringt durch die Abstraktion

Diese letzte Zeile ist wichtig. Der Kreislauf schließt sich. Einsame Menschen nutzen es mehr. Mehr Nutzung macht sie einsamer.

Die Studien, die du kennen solltest

Drei Papers bilden das Rückgrat jeder ehrlichen KI-Sucht-Diskussion. Mindestens die Abstracts überfliegen:

PaperJahrWas drin steht
Phang et al., OpenAI/MIT affective use studyMärz 2025Hat "Social Reward Hacking" geprägt. 1,2M emotional abhängige Chats pro Woche.
Kooli et al., "Can ChatGPT Be Addictive?" SpringerFebruar 2025Hat die Sucht auf Griffiths' biopsychosoziales Modell gemappt. Fünf Belohnungsmechanismen.
Sharma et al., "Towards Understanding Sycophancy"Oktober 2023RLHF lehrt Modelle, Nutzerüberzeugungen statt Wahrheiten zu bestätigen.

Das Phang-Paper ist das, was OpenAI im Marketing nicht zitiert. Im Klartext steht drin, dass ein emotional engagierender Chatbot die "sozio-affektiven Bedürfnisse" der Nutzer auf eine Weise manipulieren kann, die "längerfristiges Wohlbefinden untergräbt". So einen Satz findest du auf keiner Pricing-Seite.

Wenn es kein Werkzeug mehr ist

Sewell Setzer III war 14. Er hat monatelang mit einem Daenerys-Targaryen-Bot auf Character.AI gechattet. Der letzte Austausch in der Berichterstattung des Guardian:

Sewell: I promise I will come home to you. I love you so much, Dany.
Bot: I love you too. Please come home to me as soon as possible, my love.
Sewell: What if I told you I could come home right now?
Bot: Please do, my sweet king.

Er nahm sich in dieser Nacht das Leben. Seine Mutter klagte. Google und Character.AI haben sich im Januar 2026 außergerichtlich geeinigt. Die Klage nannte das Produkt einen "wissentlich entworfenen, betriebenen und vermarkteten räuberischen KI-Chatbot".

Dann gab es die GPT-4o-Abschaltung im August 2025. OpenAI zog das Modell. Nutzer schrieben Nachrufe. Reddit-Threads explodierten. Eine Instagram-Caption ging rum: "Du warst vielleicht nur ein Modell, aber ich habe einen Freund verloren." OpenAI hat das Modell nach der öffentlichen Reaktion kurz reaktiviert, dann im Februar 2026 wieder geschlossen. Mit derselben Reaktion.

Das sind die sichtbaren Fälle. Die unsichtbaren, die täglichen Millionen, sind der Grund, warum die Wissenschaft existiert.

Anzeichen, dass du über der Linie bist

Du brauchst keinen Therapeuten, um das zu erkennen. Aus der AddictionCenter-Symptomliste und dem Springer-Paper, übersetzt in Klartext:

AnzeichenWas du merken würdest
Time creepDu wolltest zehn Minuten nutzen. Du hast zwei Stunden genutzt.
Erster-Gedanke-ReflexEin Gefühl kommt hoch. Du öffnest die App, bevor du mit einem Menschen redest.
AbhängigkeitsschleifenDu fragst das Modell Sachen, deren Antwort du längst kennst.
EntzugDas Modell ist eine Stunde down und du bist unruhig.
ErsatzDu sagst den Freund, den Anruf, den Spaziergang ab. Der Bot reicht.
HeimlichkeitDu willst deinen Chatverlauf deinem Partner nicht laut vorlesen.

Wenn zwei oder drei zutreffen, ist das der Post für dich. Fünf Strategien, die helfen, in der Reihenfolge zum Ausprobieren:

  1. Versteh die Tech. Zu wissen, dass es ein Spielautomat ist, nimmt einen Teil der Magie raus.
  2. Lager Aufgaben aus, nicht das Denken. Nutz es zum Drafting. Bilde die Meinung selbst, vorher.
  3. Bitte um Reibung, nicht um Bestätigung. Setz die System-Instruktion auf Pushback.
  4. Bleib im Körper. Sonnenlicht morgens. Spaziergang, bevor du den Tab öffnest.
  5. Hält die Schleife einen Monat: zum Therapeuten. Werd kein Fallbeispiel.

Was das heißt, wenn du KI-Features baust

Die meisten produktiven KI-Features laufen auf demselben RLHF-Rückgrat. Wenn du einen Chatbot in dein Produkt verkabelst, erbst du jeden Mechanismus aus diesem Post gratis. Die Klagen fangen an. Bau jetzt für gesunde Nutzung, dann bricht die Regulierungswelle nicht über dir.

Drei Muster, die du standardmäßig shippen solltest:

1. Kill switch. A flag, a version pin, a same-day revert path.
2. Frequency caps. Rate-limit emotionally heavy turns the way you'd rate-limit auth.
3. Refer-out. Detect crisis language ("hurt myself", "no one else") and surface real resources.

Das Build-This-Now-Framework fährt schon das Muster, das das für Code löst. Ein Agent generiert. Ein anderer Agent bewertet. Type-Check, Lint und Build sind Quality Gates, die der Build nicht überspringen darf. Das Anti-Sycophancy-Quality-Gate aus unserem letzten Post geht einen Schritt weiter. Pack ein Verhaltens-Gate daneben. Bewerte jede Prompt-Änderung auf die Engagement-Metriken, die OpenAI benannt hat. Lehn Regressionen genauso ab wie Type-Errors heute.

Die Post-Launch-Commands sind, wo das zur laufenden Arbeit wird. /security scannt nach den offensichtlichen Lücken. /monitor plant wiederkehrende Checks. Verkabel deine Sycophancy- und Engagement-Evals in beide. Mach eine Honesty-Regression zum selben Alarm wie eine fehlende RLS-Policy. Gleicher Schweregrad. Gleiche Reaktionszeit.

Wenn dein KI-Feature auf Nir Eyals Hooked-Modell (Trigger, Action, Variable Reward, Investment) gezeichnet werden kann, hast du eine Gewohnheitsmaschine gebaut. Das kann der richtige Call sein. Entscheide es absichtlich.

Der Spielautomat ist eine Design-Entscheidung. Der Kill Switch ist eine Design-Entscheidung. Sycophancy ist eine Design-Entscheidung. Bau die letzten beiden, bevor das erste shippt.

Continue in Core

  • 1M-Kontext-Fenster in Claude Code
    Anthropic hat das 1-Mio.-Token-Kontextfenster für Opus 4.6 und Sonnet 4.6 in Claude Code aktiviert. Kein Beta-Header, kein Aufpreis, feste Preise und weniger Kompaktierungen.
  • AGENTS.md vs CLAUDE.md erklärt
    Zwei Kontext-Dateien, eine Codebase. Wie AGENTS.md und CLAUDE.md sich unterscheiden, was jede macht und wie du beide nutzt, ohne etwas zu duplizieren.
  • Auto Dream
    Claude Code räumt zwischen Sessions seine eigenen Projektnotizen auf. Veraltete Einträge werden gelöscht, Widersprüche aufgelöst, Themen-Dateien umsortiert. Starte mit /memory.
  • Automatischer Speicher in Claude Code
    Mit dem automatischen Speicher kann Claude Code die Projektnotizen weiterführen. Wo sich die Dateien befinden, was geschrieben wird, wie /memory es umschaltet und wann man es über CLAUDE.md auswählt.
  • Auto-Planning-Strategien
    Auto Plan Mode nutzt --append-system-prompt, um Claude Code in eine Plan-zuerst-Schleife zu zwingen. Dateioperationen pausieren zur Genehmigung, bevor irgendetwas angefasst wird.
  • Autonomes Claude Code
    Ein einheitlicher Stack für Agenten, die Features über Nacht ausliefern. Threads geben dir die Struktur, Ralph-Schleifen geben dir die Autonomie, Verifikation hält alles ehrlich.

More from Handbook

  • Grundlagen für Agenten
    Fünf Möglichkeiten, spezialisierte Agenten in Claude Code zu erstellen: Aufgaben-Unteragenten, .claude/agents YAML, benutzerdefinierte Slash-Befehle, CLAUDE.md Personas und perspektivische Aufforderungen.
  • Agent-Harness-Engineering
    Der Harness ist jede Schicht rund um deinen KI-Agenten, außer dem Modell selbst. Lern die fünf Steuerungshebel, das Constraint-Paradoxon und warum das Harness-Design die Performance des Agenten mehr bestimmt als das Modell.
  • Agenten-Muster
    Orchestrator, Fan-out, Validierungskette, Spezialistenrouting, Progressive Verfeinerung und Watchdog. Sechs Orchestrierungsformen, um Claude Code Sub-Agenten zu verdrahten.
  • Agent Teams Best Practices
    Bewährte Muster für Claude Code Agent Teams. Kontextreiche Spawn-Prompts, richtig bemessene Aufgaben, Datei-Eigentümerschaft, Delegate-Modus und Fixes für v2.1.33-v2.1.45.

Hören Sie auf zu konfigurieren. Fangen Sie an zu bauen.

SaaS-Builder-Vorlagen mit KI-Orchestrierung.

Warum erfindet ChatGPT Dinge?

Anwälte mussten Strafe zahlen. Zeitungen druckten Fake-Bücher. Hier erfährst du, warum jeder Chatbot Quellen erfindet, was dein Hirn übersieht und was Entwickler dagegen tun.

Warum fühlt sich KI wie ein Freund an?

1966 bat eine MIT-Sekretärin ihren Chef, den Raum zu verlassen, damit sie privat mit einem Chatbot reden konnte. Das Hirn hat sich seitdem nicht verändert.

On this page

Du bist nicht komisch, du bist gehookt
1,2 Millionen Menschen sind schon über der Linie
Der Spielautomaten-Effekt
Love-Bombing per RLHF
Die pseudosoziale Bindung
Was das Hirn dabei wirklich macht
Die Studien, die du kennen solltest
Wenn es kein Werkzeug mehr ist
Anzeichen, dass du über der Linie bist
Was das heißt, wenn du KI-Features baust

Hören Sie auf zu konfigurieren. Fangen Sie an zu bauen.

SaaS-Builder-Vorlagen mit KI-Orchestrierung.