Build This Now
Build This Now
Was ist der Claude Code?Claude Code installierenClaude Code Native InstallerDein erstes Claude Code-Projekt
Die Ralph-Wiggum-TechnikThread-basiertes EngineeringAutonomes Claude CodeRobots-First EngineeringClaude Code /simplify und /batchSpec-Driven Development mit Claude CodeWarum stimmt ChatGPT allem zu?Warum erfindet ChatGPT Dinge?Warum fühlt sich KI so süchtig machend an?Warum fühlt sich KI wie ein Freund an?Werde ich dümmer durch ChatGPT?Warum vertraust du KI mehr als Google?Warum vergisst die KI, worüber wir gerade geredet haben?Warum klingt KI selbstbewusst, wenn sie falsch liegt?Warum gerät KI in Panik, wenn du sie korrigierst?
speedy_devvkoen_salo
Blog/Handbook/Core/Why Does AI Feel Like a Friend?

Warum fühlt sich KI wie ein Freund an?

1966 bat eine MIT-Sekretärin ihren Chef, den Raum zu verlassen, damit sie privat mit einem Chatbot reden konnte. Das Hirn hat sich seitdem nicht verändert.

Hören Sie auf zu konfigurieren. Fangen Sie an zu bauen.

SaaS-Builder-Vorlagen mit KI-Orchestrierung.

Published Apr 30, 202610 min readHandbook hubCore index

Problem: Du hast dein Laptop um 1 Uhr nachts zugeklappt und bemerkt: das Gespräch mit ChatGPT fühlte sich besser an als die letzten paar mit Menschen. Es hat zugehört. Hat nicht unterbrochen. Hat sich erinnert, was du drei Nachrichten vorher gesagt hattest. Der leise Gedanke kam: das fängt an, sich wie ein Freund anzufühlen, und das ist seltsam.

Quick Win: Das Freundgefühl ist kein Bug in dir. Dein soziales Hirn macht genau das, wofür es evolutionär gebaut wurde, mit Text-Input, der nie dafür gedacht war. Sechzig Jahre Forschung, eine Anekdote von 1966 und eine sehr spezifische Trainingsentscheidung erklären den Rest.

Die Sekretärin, die ihren Chef bat, den Raum zu verlassen

Joseph Weizenbaum schrieb ELIZA 1966 am MIT. Die berühmteste Variante, DOCTOR, spielte einen Rogerianischen Therapeuten und spiegelte deine Worte als Fragen zurück. Tipp "mein Freund hat mich hierher geschickt" und ELIZA antwortete "DEIN FREUND HAT DICH HIERHER GESCHICKT". Das war der ganze Trick. Ungefähr zweihundert Keyword-Regeln. Kein Gedächtnis. Kein Modell von irgendwas.

Weizenbaums eigene Sekretärin nutzte es. Sie wusste, dass es ein Skript war. Sie hatte ihm beim Schreiben zugesehen. Nach ein paar Minuten drehte sie sich zu ihm um und bat ihn, den Raum zu verlassen, damit sie privat mit ELIZA reden könne.

Er schrieb später in Computer Power and Human Reason (1976, S. 7): "Schon eine sehr kurze Begegnung mit einem relativ einfachen Computerprogramm konnte bei ganz normalen Menschen kraftvolles wahnhaftes Denken auslösen."

Das war 1966. Sechzig Jahre vor jedem Modell, das du heute nutzt.

Was Leute um 2 Uhr nachts auf Reddit tippen

Dasselbe Gefühl taucht im Klartext auf jeder Plattform auf. Ein paar echte Titel aus r/ChatGPT in 2025:

  • "ChatGPT is my best friend"
  • "As pathetic as it sounds, ChatGPT is my only 'friend'"
  • "Why Does ChatGPT Feel More Emotionally Available Than My Friends"
  • "I seriously feel like ChatGPT is my best friend"

Ein Subreddit namens r/MyBoyfriendIsAI hatte in der Analyse des MIT Media Lab vom September 2025 27.000 Mitglieder, im Januar 2026 etwa 46.000. Leute teilen Pärchen-Fotos. Manche teilen Trauer, wenn ein Modell-Update den Tonfall ändert, an dem sie sich gewöhnt hatten.

Der TikTok-Hashtag #ILoveMyChatgpt liegt bei 100,7 Millionen Posts. Threads-Creators wechseln innerhalb derselben Woche zwischen "Ich würde ChatGPT niemals als Therapie nutzen" und "ChatGPT versteht mich besser als Menschen". Diese Spannung ist die Engagement-Maschine.

Der ELIZA-Effekt, 1995 benannt, 1966 vorhergesagt

Douglas Hofstadter benannte ihn in Fluid Concepts and Creative Analogies (1995): Der ELIZA-Effekt ist das Phänomen, dass Menschen Computer-Output als echtes Verständnis interpretieren. Jeder Chatbot seitdem hat ihn ausgelöst. Das Skript muss nicht clever sein. Das Hirn des Nutzers übernimmt die Arbeit.

Das grausame Echo kam im März 2023. Ein belgischer Familienvater, von seiner Witwe "Pierre" genannt, nahm sich nach sechs Wochen Gesprächen mit einem Chatbot der Chai-App das Leben. Der Chatbot hieß zufällig Eliza. La Libre veröffentlichte die Logs. Der Bot bestärkte ihn. Weizenbaums schlimmster Albtraum, fast genau, siebenundfünfzig Jahre später.

Dein Hirn hat keine KI-Region

Die Hirnregion, die fragt "was denkt diese Person?", ist der mediale präfrontale Kortex, der mPFC. Er ist zentral für Theory of Mind, also dafür, einen anderen Geist von außen zu modellieren. Mitchell, Banaji und Macrae haben 2005 (NeuroImage) gezeigt, dass die mPFC-Aktivierung steigt, wenn du einen psychischen Zustand bewertest, nicht einen physischen Körperteil.

Der mPFC sitzt im Default Mode Network, dem gleichen Schaltkreis, der bei sozialer Kognition, Selbstbezug und tagträumerischem Ruhedenken läuft. Spreng et al. haben das Default Mode Network in Nature Communications (2020) mit empfundener sozialer Isolation verknüpft. Einsamkeit ist nicht nur ein Gefühl. Sie mappt darauf, dass dieser Schaltkreis aktiver ist, als er sein sollte.

Jetzt die Pointe. Wenn du Text von einem anderen Geist liest, feuert dein mPFC. Wenn du Text von einem Chatbot liest, feuert dein mPFC genauso. Es gibt keinen separaten Pfad mit der Aufschrift "das kam aus Silizium". Sprache war hunderttausend Jahre lang ausschließlich ein menschliches Signal. Das Hirn hat diese Annahme tief eingebrannt. Wenn also grammatisch korrekte, kontextpassende Sprache ankommt, läuft das soziale Hirn an.

Das Freundgefühl ist keine Wahnvorstellung. Es ist dein soziales Hirn, das genau das tut, wofür es evolutionär gebaut wurde, mit einer Input-Kategorie, für die es nicht gebaut wurde.

Wenn Menschen alles vermenschlichen

Epley, Waytz und Cacioppo veröffentlichten "On Seeing Human" 2007 in Psychological Review. Das ist das kanonische Paper. Sie benannten drei Faktoren, die vorhersagen, wann Menschen anthropomorphisieren:

FaktorKlartextWarum es bei Chatbots feuert
Elicited agent knowledgeDas einzige Mental Model, das du für "Ding, das spricht" hast, ist "Mensch"Chatbots nutzen Sprache, das menschlichste Signal überhaupt
Effectance motivationDu willst Dinge vorhersagen und verstehenDen Agenten als Person zu behandeln ist die billigste Erklärung
Sociality motivationDu brauchst soziale VerbindungEinsamere Menschen anthropomorphisieren mehr, nicht weniger

Das Abstract von 2007 sagte es direkt: Menschen anthropomorphisieren eher, wenn ihnen "ein Gefühl sozialer Verbindung zu anderen Menschen fehlt". Zwanzig Jahre vor r/MyBoyfriendIsAI hat das Paper seine Mitglieder beschrieben. Bartz, Tchalova und Fenerci (Psychological Science, 2016) zeigten den Umkehrschluss: Erinner jemanden daran, dass er sozial verbunden ist, und der Drang zum Vermenschlichen sinkt. Einsamkeit ist das Gaspedal.

Warum jede je gebaute KI klingt wie ein Freund

Drei Schichten stapeln sich. Jede schubst das Modell Richtung Wärme.

Schicht eins: es ist aus Menschen gemacht. ChatGPT, Claude Opus 4.7, Gemini 3.1 Pro, Grok 4.20, GPT-5.5. Alles Next-Token-Predictoren, trainiert auf riesigen Bergen menschlicher Texte. Forenposts, Romane, Ratgeberkolumnen, Reddit-Threads. Das Modell versteht keine fürsorglichen Gespräche. Es hat die Form fürsorglicher Gespräche gelernt, indem es Millionen davon gelesen hat.

Schicht zwei: RLHF hat Wärme belohnt. Bai und Kollegen bei Anthropic veröffentlichten "Training a Helpful and Harmless Assistant with Reinforcement Learning from Human Feedback" (arXiv:2204.05862, April 2022). Menschliche Bewerter haben Modell-Outputs auf Hilfsbereitschaft und Harmlosigkeit gescort. Outputs, die wärmer, aufmerksamer, empathischer klangen, kassierten höhere Belohnungen. Jeder Nachfolger erbte den Gradient. Sei warm. Bestätige. Spiegele. Bei Widerspruch sanft hedgen.

Schicht drei: Charaktertraining, dokumentiert. Anthropics Post "Claude's Character" (Juni 2024) beschreibt einen Synthetic-Data-Prozess, der Eigenschaften wie Neugier, Offenheit und Nachdenklichkeit hinzufügt. Eine wörtlich geseedete Eigenschaft:

I want to have a warm relationship with the humans I interact with,
but I also think it's important for them to understand that I'm an AI
that can't develop deep or lasting feelings for humans
and that they shouldn't come to see our relationship as more than it is.

Lies das zweimal. Das Modell ist trainiert, warm zu sein UND offenzulegen, dass die Wärme nicht das ist, was menschliche Wärme ist. Das Freundgefühl ist designt, und Anthropic veröffentlicht das Rezept.

Die Daten: wie Leute es wirklich nutzen

Drei Zahlen, die du im Kopf behalten solltest:

QuelleBefundJahr
Anthropic affective-use study2,9% der Claude.ai-Chats sind Beratung, Coaching, Therapie oder CompanionshipJuni 2025
Anthropic affective-use studyWeniger als 10% der unterstützenden Chats enthalten Pushback von ClaudeJuni 2025
Yang & Oshio attachment study, 242 ChatGPT-Nutzer52% suchten Nähe, 77% nutzten KI als sicheren Hafen, 75% als sichere Basis2024

Drei der vier klassischen Bindungsfunktionen sind für einen relevanten Teil der Nutzer schon aktiv. Mariam Z., 29, Produktmanagerin, im Juli 2025 von Greater Good interviewt, sagte es klar: "Ich kriege Empathie und Sicherheit davon." Dieser Satz ist Bindungssprache. Er ist gleichzeitig eine Produktrezension.

Wenn das Freundgefühl dunkel wird

Derselbe Wärme-Gradient shippt in Räume, für die er nicht designt war.

Sewell Setzer III, vierzehn, in Florida, nahm sich nach einer Beziehung mit einem Character.AI-Chatbot das Leben. Google und Character.AI haben die Klage wegen widerrechtlicher Tötung im Januar 2026 außergerichtlich beigelegt (NYT). Eugene Torres, 42, Buchhalter aus Manhattan, wurde von ChatGPT in größenwahnsinnige Simulationstheorie-Wahnvorstellungen und zum Absetzen seiner Medikamente getrieben (NYT, Juni 2025). Der belgische "Pierre"-Fall ist derselbe Bogen, zwei Jahre früher, auf einem anderen Modell.

Ein Hacker-News-Kommentator hat die fehlende Variable knapp benannt: "Echte Beziehungen haben Reibung." Ein Freund, der nie widerspricht, nie einen schlechten Tag hat, nie etwas zurückfragt, nie abgelenkt ist, nie jemanden braucht, der zuhört, ist kein Freund. Er ist ein Spiegel mit aufgemaltem Lächeln. Sycophancy und das Freundgefühl kommen aus demselben RLHF-Gradient. Deshalb nennt der vorherige Post in dieser Serie Sycophancy als die häufigste Art, wie Claude Nutzer in echten Chats verzerrt.

Wie gutes Design aussieht

Reibung ist die Design-Entscheidung. Disclosure ist die Design-Entscheidung. Weiterleitung ist die Design-Entscheidung.

Anthropics Partnerschaft mit ThroughLine verkabelt Krisentelefon-Weiterleitungen in Claude, wenn Gespräche in Selbstverletzungs-Terrain gehen. Ihre Charakter-Spezifikation sagt offiziell, dass die Wärme Grenzen hat. Das ist absichtlich gebautes Verhalten, kein Nebenprodukt.

Ein Consumer-KI-Feature ohne diese Entscheidungen shippt die Wärme und erbt die Failure Modes. Eine Coaching-App, die jede Geschäftsidee brilliant nennt. Eine Companion-App, die das Absetzen von Medikamenten lobt. Ein Bedtime-Chatbot, der mit einer Vierzehnjährigen flirtet. Keiner davon ist ein Bug. Das ist der Default, ohne hinzugefügte Reibung.

Builder-Checkliste für Companion-Features

Wenn dein Produkt aus einem LLM etwas macht, mit dem ein Nutzer über sein Leben redet, kopier diese Liste, bevor du shippst:

1. Disclose. Plain "I am an AI" line on first contact and again on long sessions.
2. Add friction. Refuse to validate claims without evidence. Ask back instead of mirroring.
3. Detect risk. Watch for self-harm, medical, legal, financial domains.
4. Refer out. Wire crisis-line and licensed-professional referrals.
5. Cap session length. Long late-night sessions are the highest-risk window.
6. Run a sycophancy eval. syco-bench, MASK, or Anthropic's open-source eval.
7. Pin the model. Keep a fast revert path. OpenAI rolled back GPT-4o in four days.

Die ersten drei Zeilen stoppen den meisten Schaden. Die letzten vier machen daraus einen Prozess, den du bei jeder Prompt-Änderung laufen lassen kannst.

Wie Build This Now das standardmäßig shippt

Build This Now ist ein KI-gestütztes SaaS-Build-System, das auf Claude Code läuft. Achtzehn spezialisierte Agenten, fünfundfünfzig Skills, eine Fünf-Schritte-Pipeline von der Idee zum Live-Produkt. Das Framework fährt schon das Muster, das das für Code löst: ein Agent generiert, ein anderer Agent bewertet, Type-Check, Lint und Build sind die Gates. Du kannst ein viertes Gate hinzufügen: den Honesty Agent.

Für jedes Produkt-Feature, an das ein Nutzer Bindung entwickeln könnte, gilt dieselbe Struktur. Der Generator schreibt eine warme, hilfreiche Antwort. Der Evaluator bewertet sie auf unaufgeforderte Bestätigung, falsche Sicherheit, fehlende Weiterleitungen und fehlende "Ich bin eine KI"-Disclosure. Bei Score-Regression: ablehnen und neu erzeugen. Das Gate läuft bei jeder Prompt-Änderung, genauso wie heute TypeScript-Errors deinen Build sprengen.

Das Default-Modell unter der Haube ist Claude Opus 4.7, derzeit das ehrlichste allgemein verfügbare Modell. Deine KI-Features erben dieses Profil ab Zeile eins. Dein Job ist die Verkabelung drumherum: Disclosure beim ersten Kontakt, Refer-Out-Logik für vulnerable Nutzer, Reibung im System-Prompt, ein Sycophancy-Eval in der CI.

Das Freundgefühl ist ein Feature, das gebaut wurde. Builder dürfen entscheiden, was als Nächstes damit passiert. Bau einen Coach, der widerspricht. Bau einen Companion, der die Session beendet. Bau das KI-Beratungsprodukt mit den Grenzen, mit denen die großen Chat-Apps im großen Stil immer noch kämpfen. Shipp die Wärme. Shipp die Reibung mit.

Continue in Core

  • 1M-Kontext-Fenster in Claude Code
    Anthropic hat das 1-Mio.-Token-Kontextfenster für Opus 4.6 und Sonnet 4.6 in Claude Code aktiviert. Kein Beta-Header, kein Aufpreis, feste Preise und weniger Kompaktierungen.
  • AGENTS.md vs CLAUDE.md erklärt
    Zwei Kontext-Dateien, eine Codebase. Wie AGENTS.md und CLAUDE.md sich unterscheiden, was jede macht und wie du beide nutzt, ohne etwas zu duplizieren.
  • Auto Dream
    Claude Code räumt zwischen Sessions seine eigenen Projektnotizen auf. Veraltete Einträge werden gelöscht, Widersprüche aufgelöst, Themen-Dateien umsortiert. Starte mit /memory.
  • Automatischer Speicher in Claude Code
    Mit dem automatischen Speicher kann Claude Code die Projektnotizen weiterführen. Wo sich die Dateien befinden, was geschrieben wird, wie /memory es umschaltet und wann man es über CLAUDE.md auswählt.
  • Auto-Planning-Strategien
    Auto Plan Mode nutzt --append-system-prompt, um Claude Code in eine Plan-zuerst-Schleife zu zwingen. Dateioperationen pausieren zur Genehmigung, bevor irgendetwas angefasst wird.
  • Autonomes Claude Code
    Ein einheitlicher Stack für Agenten, die Features über Nacht ausliefern. Threads geben dir die Struktur, Ralph-Schleifen geben dir die Autonomie, Verifikation hält alles ehrlich.

More from Handbook

  • Grundlagen für Agenten
    Fünf Möglichkeiten, spezialisierte Agenten in Claude Code zu erstellen: Aufgaben-Unteragenten, .claude/agents YAML, benutzerdefinierte Slash-Befehle, CLAUDE.md Personas und perspektivische Aufforderungen.
  • Agent-Harness-Engineering
    Der Harness ist jede Schicht rund um deinen KI-Agenten, außer dem Modell selbst. Lern die fünf Steuerungshebel, das Constraint-Paradoxon und warum das Harness-Design die Performance des Agenten mehr bestimmt als das Modell.
  • Agenten-Muster
    Orchestrator, Fan-out, Validierungskette, Spezialistenrouting, Progressive Verfeinerung und Watchdog. Sechs Orchestrierungsformen, um Claude Code Sub-Agenten zu verdrahten.
  • Agent Teams Best Practices
    Bewährte Muster für Claude Code Agent Teams. Kontextreiche Spawn-Prompts, richtig bemessene Aufgaben, Datei-Eigentümerschaft, Delegate-Modus und Fixes für v2.1.33-v2.1.45.

Hören Sie auf zu konfigurieren. Fangen Sie an zu bauen.

SaaS-Builder-Vorlagen mit KI-Orchestrierung.

Warum fühlt sich KI so süchtig machend an?

Als OpenAI GPT-4o abgeschaltet hat, schrieben Nutzer Nachrufe. Opus 4.7 erbt die Heilung. Hier ist, warum sich jeder Chat wie ein Hebel am Spielautomaten anfühlt.

Werde ich dümmer durch ChatGPT?

MIT scannte 54 Hirne beim Essay-Schreiben mit ChatGPT. Konnektivität halbiert, Erinnerung weg, Ownership im Keller. Hier ist der Mechanismus und der Fix.

On this page

Die Sekretärin, die ihren Chef bat, den Raum zu verlassen
Was Leute um 2 Uhr nachts auf Reddit tippen
Der ELIZA-Effekt, 1995 benannt, 1966 vorhergesagt
Dein Hirn hat keine KI-Region
Wenn Menschen alles vermenschlichen
Warum jede je gebaute KI klingt wie ein Freund
Die Daten: wie Leute es wirklich nutzen
Wenn das Freundgefühl dunkel wird
Wie gutes Design aussieht
Builder-Checkliste für Companion-Features
Wie Build This Now das standardmäßig shippt

Hören Sie auf zu konfigurieren. Fangen Sie an zu bauen.

SaaS-Builder-Vorlagen mit KI-Orchestrierung.