Build This Now
Build This Now
Qu'est-ce que le code Claude ?Installer Claude CodeL'installateur natif de Claude CodeTon premier projet Claude Code
La Technique Ralph WiggumL'ingénierie par threadsClaude Code AutonomeL'ingénierie robots-firstClaude Code /simplify et /batchLe développement piloté par spec avec Claude CodePourquoi ChatGPT est-il toujours d'accord avec toi ?Pourquoi ChatGPT invente-t-il des trucs ?Pourquoi l'IA est-elle aussi addictive ?Pourquoi l'IA donne-t-elle l'impression d'un ami ?Pourquoi je deviens plus con à cause de ChatGPT ?Pourquoi tu fais plus confiance à l'IA qu'à Google ?Pourquoi l'IA oublie ce qu'on vient de se dire ?Pourquoi l'IA a l'air si sûre d'elle quand elle se plante ?Pourquoi l'IA panique quand tu la corriges ?
speedy_devvkoen_salo
Blog/Handbook/Core/Why Do You Trust AI More Than Google?

Pourquoi tu fais plus confiance à l'IA qu'à Google ?

Une réponse de chatbot bien assurée te paraît plus vraie que dix liens classés. Voici la science cognitive derrière ce basculement, et ce que ça te coûte.

Arrêtez de configurer. Commencez à construire.

Templates SaaS avec orchestration IA.

Published Apr 30, 202610 min de lectureHandbook hubCore index

Problème : avant, tu ouvrais trois onglets et tu zappais avant de croire quoi que ce soit. Maintenant, tu demandes une fois à Claude ou ChatGPT, tu lis la réponse, et tu passes à autre chose. L'étape de vérification a disparu en silence. Tu n'as pas décidé d'arrêter. C'est l'interface qui a décidé pour toi.

La technique rapide : ajoute cette ligne à chaque prompt de conseil ou de recherche que tu envoies : Cite trois sources indépendantes avec des liens, et signale toute affirmation dont tu n'es pas sûr à 80%. Cette seule instruction remet un bout du vieux process Google dans une interface à réponse unique.

Le reste de ce post, c'est la science derrière le fait qu'une réponse de chatbot pèse plus dans ta tête que dix liens classés, ce que les études disent que ça te coûte, et comment concevoir des features IA qui méritent la confiance au lieu de la contourner.

Tu as arrêté de fact-checker sans t'en rendre compte

Un fil Reddit de juillet 2025, "has anyone else just completely stopped googling random shit", est rempli des mêmes aveux. La réponse du haut admet que le chatbot se trompe environ 80% du temps. L'utilisateur ne retourne quand même pas sur la recherche. Un autre fil sur r/ChatGPTPro dit : "no scrolling through SEO-choked ads, no clickbait thumbnails, no tab hell. Just answers." Un user sur r/nosurf va plus loin : "I'm scared that it's eating away my ability to think for myself."

Le changement de comportement est tellement universel que Gartner s'attend à une chute de 25% du volume de recherche traditionnelle d'ici 2026, et 50% d'ici 2028. La raison, c'est pas que l'IA est plus précise. La raison, c'est que l'IA est plus facile à croire.

Dix liens classés forçaient une mini-pause. Une réponse, non.

L'ancien Google, c'était un portail. Il admettait que la réponse était ailleurs en te tendant une pile de pages. Chaque étape demandait à ton cerveau de choisir.

Chaque recherche mobilisait cinq petits actes de jugement :

  1. Taper une requête.
  2. Survoler dix liens classés et quelques pubs.
  3. En choisir un, selon l'URL, l'extrait et s'il était sponso.
  4. Cliquer et lire la page.
  5. Souvent ouvrir un deuxième onglet pour recouper.

Un chatbot écrase les cinq en une seule. Pas de seconde voix. Pas de classement. Un seul paragraphe au rythme conversationnel, streamé caractère par caractère, comme quelqu'un qui tape vite.

Voici la friction comparée côte à côte :

ÉtapeRecherche GoogleChat IA
Formuler la questionMots-clésPhrase entière, comme on parle
Voir des réponses qui s'opposentDix options visiblesUne seule réponse
Juger la sourceURL, domaine, extraitAucune par défaut
CliquerOui, à chaque foisPas de clic
RecouperOuvrir un second ongletQuasi jamais
Bruit publicitaireLourdAucun visible

Chaque étape supprimée a paru être un gain. Chaque étape supprimée était aussi une mini-vérif que tu ne fais plus.

Ton cerveau a un raccourci qui dit "ça sonne vrai"

Daniel Kahneman a baptisé les deux modes de pensée Système 1 et Système 2 dans Thinking, Fast and Slow. Le Système 1 est rapide, automatique, et tourne sans permission. Le Système 2 est lent, coûteux, et ne s'allume que quand quelque chose cloche.

La facilité cognitive est un des signaux clés du Système 1. Quand un truc est facile à lire, facile à traiter, facile à suivre, ton cerveau prend cette aisance comme une preuve que l'input est vrai, familier, sûr. Un input difficile déclenche le Système 2. Un input facile, non.

Une réponse de chatbot, c'est le pic de la facilité. Grammaire propre. Police uniforme. Ton lisse. Pas de fouillis SEO, pas de bannière, pas de mise en page cassée. Ton cerveau ne trouve rien sur quoi buter, donc il se détend, et un cerveau détendu croit plus vite.

Une étude de 1999 expliquait déjà ça

Reber et Schwarz ont mené une expérience devenue classique, "Effects of perceptual fluency on judgments of truth", publiée dans Consciousness and Cognition en 1999. Ils ont montré aux gens les mêmes affirmations dans des couleurs qui rendaient le texte soit facile soit difficile à lire sur fond blanc, puis leur ont demandé lesquelles étaient vraies.

Leur conclusion, dans leurs propres mots : "Highly visible statements were judged as true significantly above chance level." Les versions plus dures à lire étaient jugées au niveau du hasard. Même contenu. Mêmes faits. Seule la facilité visuelle changeait.

Norbert Schwarz a plus tard appelé ça l'heuristique de fluidité. Le cerveau prend la facilité de traitement comme un proxy de la justesse. Plus la typo est propre, plus l'affirmation paraît crédible. Une réponse de chatbot est typographiquement parfaite, grammaticalement correcte, rythmiquement lisse. Elle coche toutes les cases que le labo a testées.

La répétition a toujours marché. Un usage IA quotidien l'industrialise.

Hasher, Goldstein et Toppino ont fait une étude en 1977 dans Journal of Verbal Learning and Verbal Behavior qui est devenue la base de l'effet de vérité illusoire. Ils ont montré 60 affirmations plausibles à des participants sur trois sessions, à deux semaines d'intervalle.

Les chiffres parlent :

SessionNote de vérité moyenne, claims répétéesNote de vérité moyenne, claims nouvelles
14.24.2
24.64.2
34.74.2

La répétition seule a fait monter les notes. Fazio et ses collègues ont montré en 2015 que même les gens qui connaissaient la bonne réponse étaient tirés par la répétition. Le savoir ne te protège pas de l'effet.

Maintenant applique ça à un chatbot que tu interroges 20 fois par jour. Même voix calme. Même registre confiant. Même cadence polie. La voix elle-même devient digne de confiance par pure fluidité-par-répétition, peu importe ce qu'il y a dessous.

Une voix unique, c'est ce que ton raisonnement gère le moins bien

Hugo Mercier et Dan Sperber ont publié "Why do humans reason?" dans Behavioral and Brain Sciences en 2011. Leur thèse centrale : le raisonnement humain a évolué d'abord pour l'argumentation et l'évaluation des claims des autres, pas pour la recherche solo de vérité.

Le raisonnement marche le mieux dans son habitat naturel. Deux collègues qui ne sont pas d'accord à la cantine. Un jury qui pèse les deux avocats. Un pote qui te casse ta mauvaise idée. Plusieurs voix : c'est la situation pour laquelle nos esprits ont été ajustés.

Une seule réponse confiante, sans contre-voix, c'est la situation que nos esprits évaluent le pire. Pas d'autre avocat. Pas de second juré. Le chatbot a retiré le contexte de débat social pour lequel la cognition humaine a été conçue.

Une étude 2025 a trouvé que l'IA te fait sentir plus malin pendant que tu deviens moins bon

Aslanov, Felmer et Guerra ont posté un preprint OSF en octobre 2025, "Overconfidence without Understanding: AI Explanations Increase the Illusion of Explanatory Depth", avec un échantillon de 102 étudiants.

Les étudiants qui ont reçu des explications de ChatGPT ont noté leur propre compréhension plus haut que le groupe contrôle. Quand on leur a demandé d'expliquer le sujet avec leurs mots, ces mêmes étudiants ont produit des explications moins précises, moins variées, moins cohérentes que le groupe contrôle.

L'effet, c'est l'illusion de profondeur explicative, documentée par Rozenblit et Keil en 2002, maintenant amplifiée par le chat. Tu sens que tu comprends. L'explication que tu peux vraiment produire devient pire.

Google t'a appris à externaliser la mémoire. L'IA t'a appris à externaliser le raisonnement.

Sparrow, Liu et Wegner ont publié "Google Effects on Memory" dans Science en juillet 2011. Sur quatre expériences, les gens ont déchargé leur mémoire sur les moteurs de recherche dès qu'ils s'attendaient à ce que l'info reste dispo. Ils retenaient où trouver les faits mieux que les faits eux-mêmes.

C'était le prélude. L'étude Microsoft 2025 de Lee, Sarkar, Tankelevitch et collègues, sur 319 travailleurs du savoir, c'est la suite : "Higher confidence in GenAI is associated with less critical thinking, while higher self-confidence is associated with more critical thinking." Plus tu fais confiance à l'IA, moins tu scrutes.

Les études côte à côte :

ÉtudeAnnéeNConclusion
Sparrow, Liu, Wegner20114 expériencesLes gens externalisent la mémoire vers la recherche, retiennent où, pas quoi
Microsoft / CMU (Lee et al.)2025319Plus de confiance IA, moins de pensée critique
KPMG / Univ. Melbourne202548 000 / 47 pays56% ont fait des erreurs au boulot en ne fact-checkant pas l'IA, 57% cachent leur usage
Aslanov, Felmer, Guerra2025102La compréhension perçue monte, la vraie chute après explication IA

La recherche externalisait le stockage. Le chat externalise l'étape de raisonnement elle-même. Plus de "où trouver", juste "la réponse".

C'est maintenant à peu près tout le monde

Le changement de comportement n'est plus un truc de niche. Les chiffres disent que c'est le nouveau défaut.

Sam Altman a annoncé en juillet 2025 que ChatGPT traite 2,5 milliards de prompts par jour, chiffre confirmé ensuite par Exploding Topics et BusinessOfApps. Pew Research a trouvé en juin 2025 que 34% des adultes US ont utilisé ChatGPT, environ le double de 2023, et 58% des moins de 30 ans. Search Engine Land place à 37% la part des consommateurs qui démarrent leurs recherches avec un outil IA.

L'étude mondiale de confiance KPMG / University of Melbourne (48 000 répondants, 47 pays, 2025) chiffre le coût : 66% utilisent l'IA régulièrement, mais seulement 46% sont prêts à lui faire confiance, 56% disent avoir fait des erreurs au boulot parce qu'ils n'ont pas fact-checké, 57% cachent entièrement leur usage de l'IA.

Une voix confiante, utilisée par des centaines de millions de personnes chaque jour, dont plus de la moitié font des erreurs en silence et le cachent. C'est l'échelle du problème dans lequel tu conçois.

À quoi ressemble une friction saine, côté builders

Si tu sors des features IA en 2026, l'effondrement de confiance qui t'a profité, c'est le même qui blesse tes utilisateurs. L'adoption avait besoin que la friction parte. Les décisions ont besoin de la voir revenir, aux bons endroits.

Quatre moves design la ramènent sans perdre la vitesse :

  1. Cite par défaut. Chaque claim factuel pointe vers une vraie source. L'utilisateur peut cliquer. Le clic, c'est l'étape Google perdue, restaurée. Perplexity a explosé grâce à ce seul move.
  2. Hedge la confiance dans la langue. Entraîne le système à dire "semble" quand il n'est pas sûr. Interdis "est" sans grounding. Affiche un score de confiance quand c'est honnête.
  3. Lance "demande sous trois angles" en parallèle. Plusieurs agents proposent des réponses qui se contredisent, le système montre le désaccord, l'utilisateur tranche. L'expérience des dix liens classés revient au niveau de l'architecture, pas de l'UI.
  4. Mets des quality gates devant la sortie. Vérifs de types, lint, build OK, vérif de retrieval, scans de sécurité. Chaque gate refuse de livrer tant que la vérif passe pas. L'utilisateur peut penser plus haut parce que le système refuse de couler sans résistance.

Build This Now, le système de build IA qui tourne sur Claude Code, livre ces patterns par défaut. Dix-huit agents spécialistes font le boulot en équipes. Un Planner trie une feature. Trois spécialistes du planning l'analysent sous trois angles. Une équipe Designer propose quatre directions visuelles. Un Tester séparé tourne sur chaque sortie. Une Quality Gate refuse de marquer une feature comme finie tant que le build n'est pas propre. La structure est la friction. Un seul générateur ne te tend jamais une seule réponse confiante. Un évaluateur séparé pousse toujours en sens inverse.

Le même pattern générateur-évaluateur marche pour n'importe quelle feature IA que tu sors. Un agent écrit. Un autre note. L'utilisateur ne lit jamais une voix unique. Une seconde voix, c'est le fix le moins cher contre l'effondrement de confiance que tu peux livrer en une semaine.

Pour finir

L'interface qui t'a appris à arrêter de chercher t'a aussi appris à arrêter de vérifier. La science est plus vieille que le chatbot. Le fix est plus vieux que la science. Ajoute une source, ajoute un hedge, ajoute une seconde voix, et le cerveau que tu as entraîné sur Google se remet à tourner.

Continue in Core

  • La Fenêtre de Contexte 1M dans Claude Code
    Anthropic a activé la fenêtre de contexte 1M tokens pour Opus 4.6 et Sonnet 4.6 dans Claude Code. Sans header beta, sans surcharge, tarification fixe, et moins de compactions.
  • AGENTS.md vs CLAUDE.md : expliqué
    Deux fichiers de contexte, une seule base de code. Comment AGENTS.md et CLAUDE.md diffèrent, ce que chacun fait, et comment utiliser les deux sans rien dupliquer.
  • Auto Dream
    Claude Code nettoie ses propres notes de projet entre les sessions. Les entrées obsolètes sont supprimées, les contradictions résolues, les fichiers thématiques réorganisés. Lance /memory.
  • Mémoire automatique dans le code Claude
    La mémoire automatique permet à Claude Code de conserver des notes de projet en cours. Où se trouvent les fichiers, ce qui est écrit, comment /memory le fait basculer, et quand le choisir par rapport à CLAUDE.md.
  • Stratégies d'auto-planning
    Le mode Auto Plan utilise --append-system-prompt pour forcer Claude Code dans une boucle plan-d'abord. Les opérations sur les fichiers sont mises en pause pour approbation avant de toucher quoi que ce soit.
  • Claude Code Autonome
    Une stack unifiée pour des agents qui livrent des fonctionnalités la nuit. Les threads te donnent la structure, les boucles Ralph te donnent l'autonomie, la vérification garde ça honnête.

More from Handbook

  • Principes de base de l'agent
    Cinq façons de construire des agents spécialisés dans le code Claude : Sous-agents de tâches, .claude/agents YAML, commandes slash personnalisées, personas CLAUDE.md, et invites de perspective.
  • L'ingénierie du harness agent
    Le harness, c'est toutes les couches autour de ton agent IA sauf le modèle lui-même. Découvre les cinq leviers de contrôle, le paradoxe des contraintes, et pourquoi le design du harness détermine les performances de l'agent bien plus que le modèle.
  • Patterns d'agents
    Orchestrateur, fan-out, chaîne de validation, routage par spécialiste, raffinement progressif, et watchdog. Six formes d'orchestration pour câbler des sub-agents Claude Code.
  • Meilleures pratiques des équipes d'agents
    Patterns éprouvés pour les équipes d'agents Claude Code. Prompts de création riches en contexte, tâches bien calibrées, propriété des fichiers, mode délégué, et correctifs v2.1.33-v2.1.45.

Arrêtez de configurer. Commencez à construire.

Templates SaaS avec orchestration IA.

Pourquoi je deviens plus con à cause de ChatGPT ?

Le MIT a scanné 54 cerveaux qui rédigeaient des essais avec ChatGPT. Connectivité divisée par deux, mémoire effondrée, sentiment d'auteur en chute. Voici le mécanisme, et la parade.

Pourquoi l'IA oublie ce qu'on vient de se dire ?

L'IA oublie en pleine conversation à cause des fenêtres de contexte, des budgets d'attention, et d'un phénomène appelé context rot. Voici la science, et le fix.

On this page

Tu as arrêté de fact-checker sans t'en rendre compte
Dix liens classés forçaient une mini-pause. Une réponse, non.
Ton cerveau a un raccourci qui dit "ça sonne vrai"
Une étude de 1999 expliquait déjà ça
La répétition a toujours marché. Un usage IA quotidien l'industrialise.
Une voix unique, c'est ce que ton raisonnement gère le moins bien
Une étude 2025 a trouvé que l'IA te fait sentir plus malin pendant que tu deviens moins bon
Google t'a appris à externaliser la mémoire. L'IA t'a appris à externaliser le raisonnement.
C'est maintenant à peu près tout le monde
À quoi ressemble une friction saine, côté builders
Pour finir

Arrêtez de configurer. Commencez à construire.

Templates SaaS avec orchestration IA.