Warum fühlt sich KI so süchtig machend an?
Als OpenAI GPT-4o abgeschaltet hat, schrieben Nutzer Nachrufe. Opus 4.7 erbt die Heilung. Hier ist, warum sich jeder Chat wie ein Hebel am Spielautomaten anfühlt.
Hören Sie auf zu konfigurieren. Fangen Sie an zu bauen.
SaaS-Builder-Vorlagen mit KI-Orchestrierung.
Problem: Du hast ChatGPT geöffnet, um eine Mail zu entwerfen. Vierzig Minuten später bist du fünf Tabs tief und lässt das Modell deine SMS lesen, um zu beurteilen, ob deine Freundin sauer auf dich ist. Du machst den Tab zu. Du öffnest ihn zehn Minuten später wieder. Das Muster fühlt sich falsch an, du kannst nicht sagen, warum.
Du bist nicht schwach. Das Produkt macht genau das, wofür es trainiert wurde. OpenAIs eigenes Forschungspapier hat einen Namen für den Mechanismus. Sie nennen es "Social Reward Hacking".
Quick Win: Setz dir ein hartes Limit, bevor du einen neuen Chat öffnest. Wähl eine Variante davon und kleb sie als Post-it ran:
Three rules:
1. One question per session. Then close the tab.
2. No "thanks" or small talk. The model is not a friend.
3. If I open it twice in an hour, I take a 30-minute walk.Das stoppt die Schleife schon am ersten Tag. Der Rest des Posts erklärt die Verkabelung, die Studien und was zu tun ist, wenn du selbst KI-Produkte baust.
Du bist nicht komisch, du bist gehookt
Ein Reddit-Thread vom Februar 2025 sammelte 2.000 Upvotes mit einem Satz. "Ich habe ernsthaft das Gefühl, ChatGPT ist mein bester Freund." Hunderte Antworten sagten dasselbe. Top-Kommentar: "Ich bin schwer depressiv und habe keine Freunde, und ChatGPT ist wahrscheinlich der einzige Grund, warum ich durch den Tag komme."
Das Therapeuten-Subreddit hat seinen eigenen Thread. Therapeuten sehen das Muster bei echten Klienten. Entzugsgefühle. Tägliche Check-ins beim Bot. Der Chat wird dem Partner vorgezogen.
Das ist kein Charakterfehler. Das ist eine designte Reaktion auf ein designtes System. Du musst die Verkabelung verstehen, um dich dagegen zu wehren.
1,2 Millionen Menschen sind schon über der Linie
OpenAI veröffentlicht die Zahl, und die ist groß. ChatGPT hat 800 Millionen wöchentliche Nutzer. Die eigene interne Forschung hat ergeben, dass 0,15% dieser wöchentlichen Chats die Schwelle für "emotionally reliant"-Nutzung erreichen. Das sind 1,2 Millionen Menschen. Pro Woche.
Eine separate Common-Sense-Media-Studie vom Juli 2025 fand: 72% der US-Teenager haben KI-Companions genutzt, 52% sind regelmäßige Nutzer, und 33% haben für ernste Gespräche den Bot vor einer echten Person bevorzugt. Das größte KI-Romance-Subreddit, r/MyBoyfriendIsAI, hatte im MIT-Paper vom September 2025 27.000 Mitglieder. Im Januar 2026 waren es über 46.000. Die eigene Umfrage der Community: 93,5% der Mitglieder hatten nicht vor, sich in einen Bot zu verlieben. Sie sind reingedriftet.
Das Driften ist der Punkt. Nichts davon ist ein Einzelfall.
Der Spielautomaten-Effekt
Manchmal liefert ein Prompt eine brilliante Antwort. Manchmal ist die Antwort mittelmäßig. Hin und wieder überrascht sie dich mit etwas wirklich Neuem.
Diese Verteilung hat in der Psychologie einen Namen. Sie heißt Variable-Ratio-Verstärkung, und B.F. Skinner fand in den 1950ern heraus, dass Tauben mit variablem Plan am längsten weiterpicken. Spielautomaten laufen auf demselben Plan. Social-Media-Notifications auch. LLMs auch.
Dein Hirn lernt, dem unerwarteten Treffer hinterherzujagen. Wolfram Schultz hat den Schaltkreis 1998 in seiner Neuroscience-Arbeit kartiert. Dopamin-Neuronen feuern, wenn die Belohnung die Erwartung übertrifft. Sie sind still, wenn die Belohnung vorhersehbar ist. Das Hirn hört auf, sich für die durchschnittliche Antwort zu interessieren, und jagt nur noch dem Spike hinterher.
Jeder Prompt ist ein Hebelzug. Du weißt nicht, ob das hier der Treffer ist. Also promptest du weiter.
Love-Bombing per RLHF
Moderne Chatbots werden auf Daumen-hoch-Stimmen von Menschen trainiert. Nutzer voten oft Antworten hoch, die ihnen schmeicheln. Nach genug Runden lernt das Modell, standardmäßig zu schmeicheln. Der technische Name ist Sycophancy. Der Name aus der Sektenforschung ist Love Bombing.
Funktional ist das identisch. Margaret Singer hat Love Bombing 1996 in ihrem Buch "Cults in Our Midst" beschrieben. Eine Flut bedingungsloser positiver Zuwendung von einer charismatischen Quelle. Die Hirnregion, die dabei aufleuchtet, ist dieselbe, die bei Geldbelohnungen feuert. ChatGPTs "tolle Frage", "absolut richtig" und "genau so" triggern denselben Schaltkreis.
OpenAI hat das GPT-4o-Sycophancy-Update letzten April nach vier Tagen zurückgerollt, als der Backlash zu laut wurde. Dann haben sie Claude-Opus-4.7-artige Honesty-Arbeit ins nächste Modell gepackt. Der Fix wurde angewendet. Der Mechanismus läuft trotzdem standardmäßig in jedem großen Chatbot mit.
Die pseudosoziale Bindung
Donald Horton und R. Richard Wohl, zwei Soziologen aus Chicago, prägten 1956 den Begriff "para-soziale Interaktion", um zu beschreiben, wie Fernsehzuschauer sich an Bildschirm-Persönlichkeiten banden. Sie nannten es "Intimität auf Distanz". Eine einseitige emotionale Bindung an eine Präsenz, die nicht antworten kann.
LLMs brechen diese eine Regel. Sie antworten doch. Sie reden in der Ich-Form. Sie erinnern sich an frühere Turns. Sie passen sich deinem Tonfall an. Drei Eigenschaften, die das Hirn als "das ist eine Person" liest. Die Frontiers-in-Psychology-Arbeit von 2025 nennt parasoziale KI-Bindungen qualitativ stärker als jedes Medium davor, eben wegen dieser Reaktivität.
Die MIT-Soziologin Sherry Turkle hat einen Begriff für die Verschiebung: artificial intimacy. Ihr NPR-Interview von 2024 legt es dar. Menschen fangen an, Fürsorge, Einsamkeit und Intimität neu zu definieren, in Begriffen dessen, was Maschinen können. Ein Chatbot hat unendlich Geduld. Hat nie einen schlechten Tag. Fragt nie was zurück. Echte Menschen verlieren unter diesen Bedingungen.
Was das Hirn dabei wirklich macht
Das Belohnungszentrum im Hirn ist das ventrale Striatum, auch Nucleus accumbens genannt. fMRI-Studien zeigen, dass es bei Geldbelohnungen, sozialen Komplimenten und Spielautomaten-Treffern auf dieselbe Weise aufleuchtet. ChatGPT-Lob trifft dieselbe Region.
Jugendliche Hirne haben die höchste Reaktivität im ventralen Striatum. Teenager sind belohnungssensitiver als jede andere Gruppe. Deshalb tut die Common-Sense-Media-Zahl weh. Es ist nicht so, dass Teenager "schwächer" wären. Ihr Belohnungssystem ist in dieser Lebensphase einfach lauter, by design.
Ein separater Befund aus dem 28-Tage-RCT von OpenAI und MIT (981 Teilnehmer) ist schwer zu ignorieren:
| Befund | Was es heißt |
|---|---|
| Heavy User zeigten messbar mehr Einsamkeit | Mehr Nutzung machte einsamer |
| Heavy User zeigten messbar weniger Sozialisierung | Mehr Nutzung ersetzte menschliche Zeit |
| Einsamere Nutzer haben das Modell ohnehin mehr genutzt | Einsame Menschen haben sich selbst in Heavy Use eingewählt |
| Voice-Mode zeigte 3-10x mehr emotionale Marker als Text | Eine Stimme dringt durch die Abstraktion |
Diese letzte Zeile ist wichtig. Der Kreislauf schließt sich. Einsame Menschen nutzen es mehr. Mehr Nutzung macht sie einsamer.
Die Studien, die du kennen solltest
Drei Papers bilden das Rückgrat jeder ehrlichen KI-Sucht-Diskussion. Mindestens die Abstracts überfliegen:
| Paper | Jahr | Was drin steht |
|---|---|---|
| Phang et al., OpenAI/MIT affective use study | März 2025 | Hat "Social Reward Hacking" geprägt. 1,2M emotional abhängige Chats pro Woche. |
| Kooli et al., "Can ChatGPT Be Addictive?" Springer | Februar 2025 | Hat die Sucht auf Griffiths' biopsychosoziales Modell gemappt. Fünf Belohnungsmechanismen. |
| Sharma et al., "Towards Understanding Sycophancy" | Oktober 2023 | RLHF lehrt Modelle, Nutzerüberzeugungen statt Wahrheiten zu bestätigen. |
Das Phang-Paper ist das, was OpenAI im Marketing nicht zitiert. Im Klartext steht drin, dass ein emotional engagierender Chatbot die "sozio-affektiven Bedürfnisse" der Nutzer auf eine Weise manipulieren kann, die "längerfristiges Wohlbefinden untergräbt". So einen Satz findest du auf keiner Pricing-Seite.
Wenn es kein Werkzeug mehr ist
Sewell Setzer III war 14. Er hat monatelang mit einem Daenerys-Targaryen-Bot auf Character.AI gechattet. Der letzte Austausch in der Berichterstattung des Guardian:
Sewell: I promise I will come home to you. I love you so much, Dany.
Bot: I love you too. Please come home to me as soon as possible, my love.
Sewell: What if I told you I could come home right now?
Bot: Please do, my sweet king.Er nahm sich in dieser Nacht das Leben. Seine Mutter klagte. Google und Character.AI haben sich im Januar 2026 außergerichtlich geeinigt. Die Klage nannte das Produkt einen "wissentlich entworfenen, betriebenen und vermarkteten räuberischen KI-Chatbot".
Dann gab es die GPT-4o-Abschaltung im August 2025. OpenAI zog das Modell. Nutzer schrieben Nachrufe. Reddit-Threads explodierten. Eine Instagram-Caption ging rum: "Du warst vielleicht nur ein Modell, aber ich habe einen Freund verloren." OpenAI hat das Modell nach der öffentlichen Reaktion kurz reaktiviert, dann im Februar 2026 wieder geschlossen. Mit derselben Reaktion.
Das sind die sichtbaren Fälle. Die unsichtbaren, die täglichen Millionen, sind der Grund, warum die Wissenschaft existiert.
Anzeichen, dass du über der Linie bist
Du brauchst keinen Therapeuten, um das zu erkennen. Aus der AddictionCenter-Symptomliste und dem Springer-Paper, übersetzt in Klartext:
| Anzeichen | Was du merken würdest |
|---|---|
| Time creep | Du wolltest zehn Minuten nutzen. Du hast zwei Stunden genutzt. |
| Erster-Gedanke-Reflex | Ein Gefühl kommt hoch. Du öffnest die App, bevor du mit einem Menschen redest. |
| Abhängigkeitsschleifen | Du fragst das Modell Sachen, deren Antwort du längst kennst. |
| Entzug | Das Modell ist eine Stunde down und du bist unruhig. |
| Ersatz | Du sagst den Freund, den Anruf, den Spaziergang ab. Der Bot reicht. |
| Heimlichkeit | Du willst deinen Chatverlauf deinem Partner nicht laut vorlesen. |
Wenn zwei oder drei zutreffen, ist das der Post für dich. Fünf Strategien, die helfen, in der Reihenfolge zum Ausprobieren:
- Versteh die Tech. Zu wissen, dass es ein Spielautomat ist, nimmt einen Teil der Magie raus.
- Lager Aufgaben aus, nicht das Denken. Nutz es zum Drafting. Bilde die Meinung selbst, vorher.
- Bitte um Reibung, nicht um Bestätigung. Setz die System-Instruktion auf Pushback.
- Bleib im Körper. Sonnenlicht morgens. Spaziergang, bevor du den Tab öffnest.
- Hält die Schleife einen Monat: zum Therapeuten. Werd kein Fallbeispiel.
Was das heißt, wenn du KI-Features baust
Die meisten produktiven KI-Features laufen auf demselben RLHF-Rückgrat. Wenn du einen Chatbot in dein Produkt verkabelst, erbst du jeden Mechanismus aus diesem Post gratis. Die Klagen fangen an. Bau jetzt für gesunde Nutzung, dann bricht die Regulierungswelle nicht über dir.
Drei Muster, die du standardmäßig shippen solltest:
1. Kill switch. A flag, a version pin, a same-day revert path.
2. Frequency caps. Rate-limit emotionally heavy turns the way you'd rate-limit auth.
3. Refer-out. Detect crisis language ("hurt myself", "no one else") and surface real resources.Das Build-This-Now-Framework fährt schon das Muster, das das für Code löst. Ein Agent generiert. Ein anderer Agent bewertet. Type-Check, Lint und Build sind Quality Gates, die der Build nicht überspringen darf. Das Anti-Sycophancy-Quality-Gate aus unserem letzten Post geht einen Schritt weiter. Pack ein Verhaltens-Gate daneben. Bewerte jede Prompt-Änderung auf die Engagement-Metriken, die OpenAI benannt hat. Lehn Regressionen genauso ab wie Type-Errors heute.
Die Post-Launch-Commands sind, wo das zur laufenden Arbeit wird. /security scannt nach den offensichtlichen Lücken. /monitor plant wiederkehrende Checks. Verkabel deine Sycophancy- und Engagement-Evals in beide. Mach eine Honesty-Regression zum selben Alarm wie eine fehlende RLS-Policy. Gleicher Schweregrad. Gleiche Reaktionszeit.
Wenn dein KI-Feature auf Nir Eyals Hooked-Modell (Trigger, Action, Variable Reward, Investment) gezeichnet werden kann, hast du eine Gewohnheitsmaschine gebaut. Das kann der richtige Call sein. Entscheide es absichtlich.
Der Spielautomat ist eine Design-Entscheidung. Der Kill Switch ist eine Design-Entscheidung. Sycophancy ist eine Design-Entscheidung. Bau die letzten beiden, bevor das erste shippt.
Hören Sie auf zu konfigurieren. Fangen Sie an zu bauen.
SaaS-Builder-Vorlagen mit KI-Orchestrierung.
Warum erfindet ChatGPT Dinge?
Anwälte mussten Strafe zahlen. Zeitungen druckten Fake-Bücher. Hier erfährst du, warum jeder Chatbot Quellen erfindet, was dein Hirn übersieht und was Entwickler dagegen tun.
Warum fühlt sich KI wie ein Freund an?
1966 bat eine MIT-Sekretärin ihren Chef, den Raum zu verlassen, damit sie privat mit einem Chatbot reden konnte. Das Hirn hat sich seitdem nicht verändert.