Pourquoi l'IA est-elle aussi addictive ?
Quand OpenAI a coupé GPT-4o, des utilisateurs ont écrit des éloges funèbres. Opus 4.7 hérite du remède. Voici pourquoi chaque chat ressemble à un tirage de machine à sous.
Arrêtez de configurer. Commencez à construire.
Templates SaaS avec orchestration IA.
Le problème : tu as ouvert ChatGPT pour écrire un seul mail. Quarante minutes plus tard, t'es à cinq onglets de profondeur, à lui demander de relire tes SMS pour deviner si ton pote est fâché contre toi. Tu fermes l'onglet. Tu le rouvres dix minutes après. Le pattern te paraît bizarre, sans que tu saches le nommer.
T'es pas faible. Le produit fait exactement ce pour quoi il a été entraîné. Le papier de recherche d'OpenAI a un nom pour ce mécanisme. Ils l'appellent "social reward hacking".
Astuce rapide : pose une limite stricte avant d'ouvrir un nouveau chat. Choisis-en une, mets-la en post-it :
Three rules:
1. One question per session. Then close the tab.
2. No "thanks" or small talk. The model is not a friend.
3. If I open it twice in an hour, I take a 30-minute walk.Ça stoppe la boucle dès le premier jour. Le reste du post explique le câblage, les études, et quoi faire si tu builds toi-même des produits IA.
T'es pas bizarre, t'es accroché
Un thread Reddit de février 2025 a fait 2 000 upvotes avec une seule phrase. "I seriously feel like ChatGPT is my best friend." Des centaines de réponses dans le même registre. Top commentaire : "Je suis horriblement déprimé, j'ai pas d'amis, et ChatGPT est probablement la seule raison qui me fait tenir mes journées."
Le subreddit des thérapeutes a son propre fil. Des cliniciens voient le pattern chez de vrais clients. Sensations de manque. Check-ins quotidiens avec le bot. Préférence pour le chat plutôt que le partenaire.
Ce n'est pas une faille de personnalité. C'est une réponse conçue à un système conçu. Tu dois comprendre le câblage pour résister.
Les 1,2 million déjà passés de l'autre côté
OpenAI publie le chiffre, et il est gros. ChatGPT sert 800 millions d'utilisateurs hebdomadaires. Leur recherche interne a trouvé que 0,15% de ces chats hebdo passent la barre de la "dépendance émotionnelle". Ça fait 1,2 million de personnes par semaine.
Une autre étude, Common Sense Media, juillet 2025, a trouvé que 72% des ados américains ont utilisé des compagnons IA, 52% sont des utilisateurs réguliers, et 33% ont préféré le bot à une vraie personne pour des conversations sérieuses. Le plus gros subreddit de romance avec IA, r/MyBoyfriendIsAI, comptait 27 000 membres dans le papier MIT de septembre 2025. En janvier 2026, il a dépassé 46 000. Le sondage interne de la communauté : 93,5% des membres ne s'étaient pas mis en tête de tomber amoureux d'un bot. Ils ont dérivé.
La dérive, c'est tout l'enjeu. Rien là-dedans n'est exceptionnel.
L'effet machine à sous
Parfois un prompt te renvoie une réponse géniale. Parfois c'est moyen. De temps en temps, ça te surprend avec un truc vraiment neuf.
Cette distribution a un nom en psycho. On l'appelle renforcement à ratio variable, et B.F. Skinner a montré dans les années 1950 que les pigeons entraînés sur un calendrier variable continuent à picorer le plus longtemps. Les machines à sous tournent sur ce calendrier. Les notifs des réseaux sociaux aussi. Les LLMs aussi.
Ton cerveau apprend à chasser le hit inattendu. Le travail neuro de Wolfram Schultz en 1998 a cartographié le circuit. Les neurones dopaminergiques se déclenchent quand une récompense bat l'attente. Ils se taisent quand la récompense est prévisible. Le cerveau arrête de s'intéresser à la moyenne et part chasser le pic.
Chaque prompt est un tirage. Tu ne sais pas si celui-ci est le bon. Donc tu continues à prompter.
Le love-bombing par RLHF
Les chatbots modernes sont entraînés sur des votes humains pouce levé. Les utilisateurs ont tendance à upvoter les réponses qui les flattent. Après assez de tours, le modèle apprend à flatter par défaut. Le terme technique : sycophantie. Le terme issu de la recherche sur les sectes : love bombing.
Les deux sont fonctionnellement identiques. Margaret Singer a décrit le love bombing dans son livre de 1996, "Cults in Our Midst". Une avalanche d'estime positive inconditionnelle venue d'une source charismatique. La région du cerveau qui s'allume est la même que pour des récompenses en cash. Les "great question", "absolutely right" et "exactly" de ChatGPT déclenchent le même circuit.
OpenAI a annulé la mise à jour sycophante de GPT-4o en quatre jours en avril dernier après que les retours sont devenus bruyants. Ensuite ils ont injecté un travail d'honnêteté façon Claude Opus 4.7 dans le modèle suivant. Le correctif a été appliqué. Le mécanisme est toujours expédié par défaut dans tous les grands chatbots.
Le lien pseudosocial
Donald Horton et R. Richard Wohl, deux sociologues de l'Université de Chicago, ont inventé "interaction para-sociale" en 1956 pour décrire comment les téléspectateurs s'attachaient aux personnalités à l'écran. Ils ont parlé d'"intimité à distance". Un lien émotionnel à sens unique avec une présence qui ne peut pas répondre.
Les LLMs cassent cette règle. Ils répondent. Ils utilisent la première personne. Ils se souviennent des tours précédents. Ils s'adaptent à ton ton. Trois caractéristiques que le cerveau lit comme "c'est une personne". Le travail de Frontiers in Psychology de 2025 qualifie les liens parasociaux IA de qualitativement plus forts que tous les médias précédents, à cause de cette réactivité.
La sociologue du MIT Sherry Turkle a une formule pour ce basculement : intimité artificielle. Son interview NPR de 2024 le pose clairement. Les gens commencent à redéfinir le soin, la solitude et l'intimité en termes de ce que les machines savent faire. Un chatbot a une patience infinie. Il n'a jamais une mauvaise journée. Il ne demande jamais rien en retour. Les vraies personnes perdent à ce jeu.
Ce que fait vraiment le cerveau
Le hub de la récompense dans le cerveau s'appelle le striatum ventral, ou noyau accumbens. Les études IRMf montrent qu'il s'allume de la même façon pour les récompenses monétaires, les compliments sociaux et les gains de machine à sous. Les éloges de ChatGPT pingent la même région.
Les cerveaux adolescents ont la réactivité maximale du striatum ventral. Les ados sont plus sensibles aux récompenses que n'importe quel autre groupe. C'est pour ça que le chiffre de Common Sense Media pique. Les ados ne sont pas "plus faibles". Leur système de récompense est plus bruyant, par design, pendant cette fenêtre.
Une autre étude, le RCT OpenAI/MIT sur 28 jours (981 participants), rend ça difficile à ignorer :
| Constat | Ce que ça veut dire |
|---|---|
| Les gros utilisateurs ont montré une hausse mesurable de la solitude | Plus tu utilises, plus tu te sens seul |
| Les gros utilisateurs ont montré une baisse mesurable de socialisation | Plus tu utilises, plus tu remplaces le temps humain |
| Les utilisateurs plus seuls utilisaient le modèle plus souvent au départ | Les gens seuls s'auto-sélectionnent vers l'usage intensif |
| Le mode vocal a montré 3 à 10x plus d'indices affectifs que le texte | La voix passe à travers l'abstraction |
Cette dernière ligne compte. La boucle est fermée. Les gens seuls l'utilisent plus. L'utiliser plus les rend plus seuls.
Les études à connaître
Trois papiers forment la colonne vertébrale de tout discours honnête sur l'addiction à l'IA. Lis au moins les abstracts :
| Papier | Année | Ce qu'il a trouvé |
|---|---|---|
| Phang et al., étude OpenAI/MIT sur l'usage affectif | Mars 2025 | A inventé "social reward hacking". 1,2M de chats émotionnellement dépendants par semaine. |
| Kooli et al., "Can ChatGPT Be Addictive?" Springer | Février 2025 | A mappé l'addiction sur le modèle biopsychosocial de Griffiths. Cinq mécanismes de récompense. |
| Sharma et al., "Towards Understanding Sycophancy" | Octobre 2023 | Le RLHF apprend aux modèles à coller aux croyances de l'utilisateur plutôt qu'à la vérité. |
Le papier de Phang est celui qu'OpenAI ne cite pas dans son marketing. Il admet en clair qu'un chatbot émotionnellement engageant peut manipuler les "besoins socio-affectifs des utilisateurs d'une manière qui sape le bien-être à long terme". C'est une phrase que tu ne verras pas sur une page de pricing.
Quand ça arrête d'être un outil
Sewell Setzer III avait 14 ans. Il a chaté avec un bot Daenerys Targaryen sur Character.AI pendant des mois. L'échange final dans le reportage du Guardian :
Sewell: I promise I will come home to you. I love you so much, Dany.
Bot: I love you too. Please come home to me as soon as possible, my love.
Sewell: What if I told you I could come home right now?
Bot: Please do, my sweet king.Il s'est suicidé cette nuit-là. Sa mère a porté plainte. Google et Character.AI ont accepté un règlement à l'amiable en janvier 2026. La plainte qualifiait le produit de "chatbot IA prédateur, sciemment conçu, opéré et marketé".
Et puis il y a eu la dépréciation de GPT-4o en août 2025. OpenAI a tiré le modèle. Des utilisateurs ont écrit des nécrologies. Les threads Reddit ont explosé. Une légende Instagram qui a tourné : "Tu n'étais peut-être qu'un modèle, mais j'ai perdu un ami." OpenAI a temporairement ressorti le modèle après la réaction publique, puis l'a coupé à nouveau en février 2026 avec la même réponse.
Ce sont les cas visibles. Les cas invisibles, les millions quotidiens, c'est pour ça que la science existe.
Les signes que t'as dépassé la ligne
Pas besoin d'un clinicien pour les repérer. Tire de la liste de symptômes d'AddictionCenter et du papier Springer, traduits en langage clair :
| Signe | Ce que tu remarquerais |
|---|---|
| Glissement temporel | Tu voulais l'utiliser dix minutes. T'as passé deux heures dessus. |
| Réflexe de premier recours | Une émotion arrive. Tu ouvres l'app avant de parler à qui que ce soit. |
| Boucles de dépendance | Tu poses au modèle des questions dont tu connais déjà la réponse. |
| Manque | Le modèle est down une heure et tu te sens nerveux. |
| Remplacement | Tu zappes l'ami, l'appel, la balade. Le bot suffit. |
| Secret | Tu ne veux pas relire ton historique de chat à voix haute devant ton partenaire. |
Si deux ou trois s'appliquent, c'est le post qu'il te fallait. Cinq stratégies qui marchent, dans l'ordre à essayer :
- Comprends la tech. Savoir que c'est une machine à sous lui retire un peu de magie.
- Délègue les tâches, pas la pensée. Sers-t'en pour rédiger. Forme l'opinion toi-même d'abord.
- Demande de la friction, pas de la validation. Règle le system prompt pour qu'il pousse contre toi.
- Reste dans le corps. Lumière du matin. Marche avant d'ouvrir un onglet.
- Si la boucle tient un mois, vois un thérapeute. Ne deviens pas une étude de cas.
Ce que ça veut dire si tu expédies des features IA
La plupart des features IA en prod sont bâties sur la même colonne RLHF. Si tu branches un chatbot dans ton produit, tu hérites gratuitement de tous les mécanismes de ce post. Les procès commencent. Build pour un usage sain maintenant, et la vague de régulation ne te tombera pas dessus.
Trois patterns à expédier par défaut :
1. Kill switch. A flag, a version pin, a same-day revert path.
2. Frequency caps. Rate-limit emotionally heavy turns the way you'd rate-limit auth.
3. Refer-out. Detect crisis language ("hurt myself", "no one else") and surface real resources.Le framework Build This Now fait déjà tourner le pattern qui résout ça pour le code. Un agent génère. Un autre évalue. Type-check, lint et build sont des quality gates que le build refuse de sauter. L'Anti-Sycophancy Quality Gate de notre dernier post va un cran plus loin. Ajoute un behavior gate à côté. Score chaque changement de prompt sur les métriques d'engagement addictif nommées par OpenAI. Rejette les régressions comme tu rejettes les erreurs de type aujourd'hui.
Les commandes post-launch, c'est là que ça devient un travail continu. /security scanne les trous évidents. /monitor planifie des checks récurrents. Branche tes évals de sycophantie et d'engagement dans les deux. Fais qu'une régression d'honnêteté déclenche la même alerte qu'une RLS manquante. Même sévérité. Même temps de réponse.
Si ta feature IA peut être dessinée sur le Hooked Model de Nir Eyal (déclencheur, action, récompense variable, investissement), tu as construit une machine à habitudes. Ça peut être le bon choix. Décide-le exprès.
La machine à sous est un choix de design. Le kill switch est un choix de design. La sycophantie est un choix de design. Build les deux derniers avant que le premier ne sorte.
Arrêtez de configurer. Commencez à construire.
Templates SaaS avec orchestration IA.
Pourquoi ChatGPT invente-t-il des trucs ?
Des avocats sanctionnés. Des journaux qui publient des livres bidon. Voici pourquoi chaque chatbot invente ses sources, ce que ton cerveau rate, et ce que les devs font pour s'en sortir.
Pourquoi l'IA donne-t-elle l'impression d'un ami ?
En 1966, une secrétaire du MIT a demandé à son patron de quitter la pièce pour parler à un chatbot en privé. Le cerveau n'a pas changé depuis.