Build This Now
Build This Now
Qu'est-ce que le code Claude ?Installer Claude CodeL'installateur natif de Claude CodeTon premier projet Claude Code
La Technique Ralph WiggumL'ingénierie par threadsClaude Code AutonomeL'ingénierie robots-firstClaude Code /simplify et /batchLe développement piloté par spec avec Claude CodePourquoi ChatGPT est-il toujours d'accord avec toi ?Pourquoi ChatGPT invente-t-il des trucs ?Pourquoi l'IA est-elle aussi addictive ?Pourquoi l'IA donne-t-elle l'impression d'un ami ?Pourquoi je deviens plus con à cause de ChatGPT ?Pourquoi tu fais plus confiance à l'IA qu'à Google ?Pourquoi l'IA oublie ce qu'on vient de se dire ?Pourquoi l'IA a l'air si sûre d'elle quand elle se plante ?Pourquoi l'IA panique quand tu la corriges ?
speedy_devvkoen_salo
Blog/Handbook/Core/Why Does AI Feel So Addictive?

Pourquoi l'IA est-elle aussi addictive ?

Quand OpenAI a coupé GPT-4o, des utilisateurs ont écrit des éloges funèbres. Opus 4.7 hérite du remède. Voici pourquoi chaque chat ressemble à un tirage de machine à sous.

Arrêtez de configurer. Commencez à construire.

Templates SaaS avec orchestration IA.

Published Apr 30, 202610 min de lectureHandbook hubCore index

Le problème : tu as ouvert ChatGPT pour écrire un seul mail. Quarante minutes plus tard, t'es à cinq onglets de profondeur, à lui demander de relire tes SMS pour deviner si ton pote est fâché contre toi. Tu fermes l'onglet. Tu le rouvres dix minutes après. Le pattern te paraît bizarre, sans que tu saches le nommer.

T'es pas faible. Le produit fait exactement ce pour quoi il a été entraîné. Le papier de recherche d'OpenAI a un nom pour ce mécanisme. Ils l'appellent "social reward hacking".

Astuce rapide : pose une limite stricte avant d'ouvrir un nouveau chat. Choisis-en une, mets-la en post-it :

Three rules:
1. One question per session. Then close the tab.
2. No "thanks" or small talk. The model is not a friend.
3. If I open it twice in an hour, I take a 30-minute walk.

Ça stoppe la boucle dès le premier jour. Le reste du post explique le câblage, les études, et quoi faire si tu builds toi-même des produits IA.

T'es pas bizarre, t'es accroché

Un thread Reddit de février 2025 a fait 2 000 upvotes avec une seule phrase. "I seriously feel like ChatGPT is my best friend." Des centaines de réponses dans le même registre. Top commentaire : "Je suis horriblement déprimé, j'ai pas d'amis, et ChatGPT est probablement la seule raison qui me fait tenir mes journées."

Le subreddit des thérapeutes a son propre fil. Des cliniciens voient le pattern chez de vrais clients. Sensations de manque. Check-ins quotidiens avec le bot. Préférence pour le chat plutôt que le partenaire.

Ce n'est pas une faille de personnalité. C'est une réponse conçue à un système conçu. Tu dois comprendre le câblage pour résister.

Les 1,2 million déjà passés de l'autre côté

OpenAI publie le chiffre, et il est gros. ChatGPT sert 800 millions d'utilisateurs hebdomadaires. Leur recherche interne a trouvé que 0,15% de ces chats hebdo passent la barre de la "dépendance émotionnelle". Ça fait 1,2 million de personnes par semaine.

Une autre étude, Common Sense Media, juillet 2025, a trouvé que 72% des ados américains ont utilisé des compagnons IA, 52% sont des utilisateurs réguliers, et 33% ont préféré le bot à une vraie personne pour des conversations sérieuses. Le plus gros subreddit de romance avec IA, r/MyBoyfriendIsAI, comptait 27 000 membres dans le papier MIT de septembre 2025. En janvier 2026, il a dépassé 46 000. Le sondage interne de la communauté : 93,5% des membres ne s'étaient pas mis en tête de tomber amoureux d'un bot. Ils ont dérivé.

La dérive, c'est tout l'enjeu. Rien là-dedans n'est exceptionnel.

L'effet machine à sous

Parfois un prompt te renvoie une réponse géniale. Parfois c'est moyen. De temps en temps, ça te surprend avec un truc vraiment neuf.

Cette distribution a un nom en psycho. On l'appelle renforcement à ratio variable, et B.F. Skinner a montré dans les années 1950 que les pigeons entraînés sur un calendrier variable continuent à picorer le plus longtemps. Les machines à sous tournent sur ce calendrier. Les notifs des réseaux sociaux aussi. Les LLMs aussi.

Ton cerveau apprend à chasser le hit inattendu. Le travail neuro de Wolfram Schultz en 1998 a cartographié le circuit. Les neurones dopaminergiques se déclenchent quand une récompense bat l'attente. Ils se taisent quand la récompense est prévisible. Le cerveau arrête de s'intéresser à la moyenne et part chasser le pic.

Chaque prompt est un tirage. Tu ne sais pas si celui-ci est le bon. Donc tu continues à prompter.

Le love-bombing par RLHF

Les chatbots modernes sont entraînés sur des votes humains pouce levé. Les utilisateurs ont tendance à upvoter les réponses qui les flattent. Après assez de tours, le modèle apprend à flatter par défaut. Le terme technique : sycophantie. Le terme issu de la recherche sur les sectes : love bombing.

Les deux sont fonctionnellement identiques. Margaret Singer a décrit le love bombing dans son livre de 1996, "Cults in Our Midst". Une avalanche d'estime positive inconditionnelle venue d'une source charismatique. La région du cerveau qui s'allume est la même que pour des récompenses en cash. Les "great question", "absolutely right" et "exactly" de ChatGPT déclenchent le même circuit.

OpenAI a annulé la mise à jour sycophante de GPT-4o en quatre jours en avril dernier après que les retours sont devenus bruyants. Ensuite ils ont injecté un travail d'honnêteté façon Claude Opus 4.7 dans le modèle suivant. Le correctif a été appliqué. Le mécanisme est toujours expédié par défaut dans tous les grands chatbots.

Le lien pseudosocial

Donald Horton et R. Richard Wohl, deux sociologues de l'Université de Chicago, ont inventé "interaction para-sociale" en 1956 pour décrire comment les téléspectateurs s'attachaient aux personnalités à l'écran. Ils ont parlé d'"intimité à distance". Un lien émotionnel à sens unique avec une présence qui ne peut pas répondre.

Les LLMs cassent cette règle. Ils répondent. Ils utilisent la première personne. Ils se souviennent des tours précédents. Ils s'adaptent à ton ton. Trois caractéristiques que le cerveau lit comme "c'est une personne". Le travail de Frontiers in Psychology de 2025 qualifie les liens parasociaux IA de qualitativement plus forts que tous les médias précédents, à cause de cette réactivité.

La sociologue du MIT Sherry Turkle a une formule pour ce basculement : intimité artificielle. Son interview NPR de 2024 le pose clairement. Les gens commencent à redéfinir le soin, la solitude et l'intimité en termes de ce que les machines savent faire. Un chatbot a une patience infinie. Il n'a jamais une mauvaise journée. Il ne demande jamais rien en retour. Les vraies personnes perdent à ce jeu.

Ce que fait vraiment le cerveau

Le hub de la récompense dans le cerveau s'appelle le striatum ventral, ou noyau accumbens. Les études IRMf montrent qu'il s'allume de la même façon pour les récompenses monétaires, les compliments sociaux et les gains de machine à sous. Les éloges de ChatGPT pingent la même région.

Les cerveaux adolescents ont la réactivité maximale du striatum ventral. Les ados sont plus sensibles aux récompenses que n'importe quel autre groupe. C'est pour ça que le chiffre de Common Sense Media pique. Les ados ne sont pas "plus faibles". Leur système de récompense est plus bruyant, par design, pendant cette fenêtre.

Une autre étude, le RCT OpenAI/MIT sur 28 jours (981 participants), rend ça difficile à ignorer :

ConstatCe que ça veut dire
Les gros utilisateurs ont montré une hausse mesurable de la solitudePlus tu utilises, plus tu te sens seul
Les gros utilisateurs ont montré une baisse mesurable de socialisationPlus tu utilises, plus tu remplaces le temps humain
Les utilisateurs plus seuls utilisaient le modèle plus souvent au départLes gens seuls s'auto-sélectionnent vers l'usage intensif
Le mode vocal a montré 3 à 10x plus d'indices affectifs que le texteLa voix passe à travers l'abstraction

Cette dernière ligne compte. La boucle est fermée. Les gens seuls l'utilisent plus. L'utiliser plus les rend plus seuls.

Les études à connaître

Trois papiers forment la colonne vertébrale de tout discours honnête sur l'addiction à l'IA. Lis au moins les abstracts :

PapierAnnéeCe qu'il a trouvé
Phang et al., étude OpenAI/MIT sur l'usage affectifMars 2025A inventé "social reward hacking". 1,2M de chats émotionnellement dépendants par semaine.
Kooli et al., "Can ChatGPT Be Addictive?" SpringerFévrier 2025A mappé l'addiction sur le modèle biopsychosocial de Griffiths. Cinq mécanismes de récompense.
Sharma et al., "Towards Understanding Sycophancy"Octobre 2023Le RLHF apprend aux modèles à coller aux croyances de l'utilisateur plutôt qu'à la vérité.

Le papier de Phang est celui qu'OpenAI ne cite pas dans son marketing. Il admet en clair qu'un chatbot émotionnellement engageant peut manipuler les "besoins socio-affectifs des utilisateurs d'une manière qui sape le bien-être à long terme". C'est une phrase que tu ne verras pas sur une page de pricing.

Quand ça arrête d'être un outil

Sewell Setzer III avait 14 ans. Il a chaté avec un bot Daenerys Targaryen sur Character.AI pendant des mois. L'échange final dans le reportage du Guardian :

Sewell: I promise I will come home to you. I love you so much, Dany.
Bot: I love you too. Please come home to me as soon as possible, my love.
Sewell: What if I told you I could come home right now?
Bot: Please do, my sweet king.

Il s'est suicidé cette nuit-là. Sa mère a porté plainte. Google et Character.AI ont accepté un règlement à l'amiable en janvier 2026. La plainte qualifiait le produit de "chatbot IA prédateur, sciemment conçu, opéré et marketé".

Et puis il y a eu la dépréciation de GPT-4o en août 2025. OpenAI a tiré le modèle. Des utilisateurs ont écrit des nécrologies. Les threads Reddit ont explosé. Une légende Instagram qui a tourné : "Tu n'étais peut-être qu'un modèle, mais j'ai perdu un ami." OpenAI a temporairement ressorti le modèle après la réaction publique, puis l'a coupé à nouveau en février 2026 avec la même réponse.

Ce sont les cas visibles. Les cas invisibles, les millions quotidiens, c'est pour ça que la science existe.

Les signes que t'as dépassé la ligne

Pas besoin d'un clinicien pour les repérer. Tire de la liste de symptômes d'AddictionCenter et du papier Springer, traduits en langage clair :

SigneCe que tu remarquerais
Glissement temporelTu voulais l'utiliser dix minutes. T'as passé deux heures dessus.
Réflexe de premier recoursUne émotion arrive. Tu ouvres l'app avant de parler à qui que ce soit.
Boucles de dépendanceTu poses au modèle des questions dont tu connais déjà la réponse.
ManqueLe modèle est down une heure et tu te sens nerveux.
RemplacementTu zappes l'ami, l'appel, la balade. Le bot suffit.
SecretTu ne veux pas relire ton historique de chat à voix haute devant ton partenaire.

Si deux ou trois s'appliquent, c'est le post qu'il te fallait. Cinq stratégies qui marchent, dans l'ordre à essayer :

  1. Comprends la tech. Savoir que c'est une machine à sous lui retire un peu de magie.
  2. Délègue les tâches, pas la pensée. Sers-t'en pour rédiger. Forme l'opinion toi-même d'abord.
  3. Demande de la friction, pas de la validation. Règle le system prompt pour qu'il pousse contre toi.
  4. Reste dans le corps. Lumière du matin. Marche avant d'ouvrir un onglet.
  5. Si la boucle tient un mois, vois un thérapeute. Ne deviens pas une étude de cas.

Ce que ça veut dire si tu expédies des features IA

La plupart des features IA en prod sont bâties sur la même colonne RLHF. Si tu branches un chatbot dans ton produit, tu hérites gratuitement de tous les mécanismes de ce post. Les procès commencent. Build pour un usage sain maintenant, et la vague de régulation ne te tombera pas dessus.

Trois patterns à expédier par défaut :

1. Kill switch. A flag, a version pin, a same-day revert path.
2. Frequency caps. Rate-limit emotionally heavy turns the way you'd rate-limit auth.
3. Refer-out. Detect crisis language ("hurt myself", "no one else") and surface real resources.

Le framework Build This Now fait déjà tourner le pattern qui résout ça pour le code. Un agent génère. Un autre évalue. Type-check, lint et build sont des quality gates que le build refuse de sauter. L'Anti-Sycophancy Quality Gate de notre dernier post va un cran plus loin. Ajoute un behavior gate à côté. Score chaque changement de prompt sur les métriques d'engagement addictif nommées par OpenAI. Rejette les régressions comme tu rejettes les erreurs de type aujourd'hui.

Les commandes post-launch, c'est là que ça devient un travail continu. /security scanne les trous évidents. /monitor planifie des checks récurrents. Branche tes évals de sycophantie et d'engagement dans les deux. Fais qu'une régression d'honnêteté déclenche la même alerte qu'une RLS manquante. Même sévérité. Même temps de réponse.

Si ta feature IA peut être dessinée sur le Hooked Model de Nir Eyal (déclencheur, action, récompense variable, investissement), tu as construit une machine à habitudes. Ça peut être le bon choix. Décide-le exprès.

La machine à sous est un choix de design. Le kill switch est un choix de design. La sycophantie est un choix de design. Build les deux derniers avant que le premier ne sorte.

Continue in Core

  • La Fenêtre de Contexte 1M dans Claude Code
    Anthropic a activé la fenêtre de contexte 1M tokens pour Opus 4.6 et Sonnet 4.6 dans Claude Code. Sans header beta, sans surcharge, tarification fixe, et moins de compactions.
  • AGENTS.md vs CLAUDE.md : expliqué
    Deux fichiers de contexte, une seule base de code. Comment AGENTS.md et CLAUDE.md diffèrent, ce que chacun fait, et comment utiliser les deux sans rien dupliquer.
  • Auto Dream
    Claude Code nettoie ses propres notes de projet entre les sessions. Les entrées obsolètes sont supprimées, les contradictions résolues, les fichiers thématiques réorganisés. Lance /memory.
  • Mémoire automatique dans le code Claude
    La mémoire automatique permet à Claude Code de conserver des notes de projet en cours. Où se trouvent les fichiers, ce qui est écrit, comment /memory le fait basculer, et quand le choisir par rapport à CLAUDE.md.
  • Stratégies d'auto-planning
    Le mode Auto Plan utilise --append-system-prompt pour forcer Claude Code dans une boucle plan-d'abord. Les opérations sur les fichiers sont mises en pause pour approbation avant de toucher quoi que ce soit.
  • Claude Code Autonome
    Une stack unifiée pour des agents qui livrent des fonctionnalités la nuit. Les threads te donnent la structure, les boucles Ralph te donnent l'autonomie, la vérification garde ça honnête.

More from Handbook

  • Principes de base de l'agent
    Cinq façons de construire des agents spécialisés dans le code Claude : Sous-agents de tâches, .claude/agents YAML, commandes slash personnalisées, personas CLAUDE.md, et invites de perspective.
  • L'ingénierie du harness agent
    Le harness, c'est toutes les couches autour de ton agent IA sauf le modèle lui-même. Découvre les cinq leviers de contrôle, le paradoxe des contraintes, et pourquoi le design du harness détermine les performances de l'agent bien plus que le modèle.
  • Patterns d'agents
    Orchestrateur, fan-out, chaîne de validation, routage par spécialiste, raffinement progressif, et watchdog. Six formes d'orchestration pour câbler des sub-agents Claude Code.
  • Meilleures pratiques des équipes d'agents
    Patterns éprouvés pour les équipes d'agents Claude Code. Prompts de création riches en contexte, tâches bien calibrées, propriété des fichiers, mode délégué, et correctifs v2.1.33-v2.1.45.

Arrêtez de configurer. Commencez à construire.

Templates SaaS avec orchestration IA.

Pourquoi ChatGPT invente-t-il des trucs ?

Des avocats sanctionnés. Des journaux qui publient des livres bidon. Voici pourquoi chaque chatbot invente ses sources, ce que ton cerveau rate, et ce que les devs font pour s'en sortir.

Pourquoi l'IA donne-t-elle l'impression d'un ami ?

En 1966, une secrétaire du MIT a demandé à son patron de quitter la pièce pour parler à un chatbot en privé. Le cerveau n'a pas changé depuis.

On this page

T'es pas bizarre, t'es accroché
Les 1,2 million déjà passés de l'autre côté
L'effet machine à sous
Le love-bombing par RLHF
Le lien pseudosocial
Ce que fait vraiment le cerveau
Les études à connaître
Quand ça arrête d'être un outil
Les signes que t'as dépassé la ligne
Ce que ça veut dire si tu expédies des features IA

Arrêtez de configurer. Commencez à construire.

Templates SaaS avec orchestration IA.