Build This Now
Build This Now
O que é o Código Claude?Instalar o Claude CodeInstalador Nativo do Claude CodeO Teu Primeiro Projeto com Claude Code
A Técnica Ralph WiggumEngenharia Baseada em ThreadsClaude Code AutónomoEngenharia Robots-FirstClaude Code /simplify e /batchDesenvolvimento Orientado por Spec com Claude CodePor Que o ChatGPT Concorda Com Tudo?Por que o ChatGPT inventa coisas?Por que a IA parece tão viciante?Por que a IA parece um amigo?Por que estou ficando mais burro usando ChatGPT?Por que você confia mais na IA do que no Google?Por que a IA esquece o que acabamos de conversar?Por que a IA soa confiante quando está errada?Por que a IA entra em pânico quando você corrige?
speedy_devvkoen_salo
Blog/Handbook/Core/Why Do You Trust AI More Than Google?

Por que você confia mais na IA do que no Google?

Uma resposta confiante de chatbot parece mais verdadeira do que dez links rankeados. Aqui está a ciência cognitiva por trás dessa virada, e o que ela te custa.

Pare de configurar. Comece a construir.

Templates SaaS com orquestração de IA.

Published Apr 30, 202610 min de leituraHandbook hubCore index

Problema: Antes você abria três abas e batia o olho em tudo antes de acreditar em qualquer coisa. Agora pergunta uma vez ao Claude ou ao ChatGPT, lê a resposta e segue em frente. A etapa de checar fato sumiu sem aviso. Você não decidiu parar. A interface decidiu por você.

Vitória rápida: Adicione esta linha em todo prompt de conselho ou pesquisa: Cite três fontes independentes com links e marque qualquer afirmação em que esteja menos de 80% confiante. Essa única instrução devolve um pedaço do velho processo do Google a uma interface de resposta única.

O resto deste post é a ciência por trás de por que uma resposta de chatbot pesa mais que dez links rankeados na sua cabeça, o que os estudos dizem que isso te custa, e como projetar features de IA que conquistam confiança em vez de pular essa etapa.

Você parou de checar fatos e nem percebeu

Uma thread do Reddit de julho de 2025, "alguém mais simplesmente parou de googlar coisas aleatórias", está cheia da mesma confissão. A resposta mais votada admite que o chatbot erra em torno de 80% das vezes. Mesmo assim, o usuário não volta para a busca. Outra thread no r/ChatGPTPro diz: "sem rolar entre anúncios cheios de SEO, sem thumbnails clickbait, sem inferno de abas. Só respostas." Um usuário no r/nosurf vai além: "Tenho medo que isso esteja corroendo minha capacidade de pensar por mim mesmo."

A mudança de comportamento é tão geral que o Gartner espera que o volume de buscas tradicionais caia 25% até 2026 e 50% até 2028. O motivo não é que a IA seja mais precisa. O motivo é que a IA parece mais fácil de acreditar.

Dez links rankeados forçavam uma pausinha. Uma resposta única, não.

O Google antigo era um portal. Ele admitia que a resposta morava em outro lugar te entregando uma pilha de páginas. Cada passo pedia ao seu cérebro para escolher.

Cada busca recrutava cinco pequenos atos de julgamento:

  1. Digitar uma consulta.
  2. Bater o olho em dez links rankeados e alguns anúncios.
  3. Escolher um com base na URL, no snippet e em ser ou não patrocinado.
  4. Clicar e ler a página.
  5. Muitas vezes abrir uma segunda aba para conferir.

Um chatbot junta os cinco em um. Não tem segunda voz. Não tem ranqueamento. Tem um parágrafo em ritmo de conversa, transmitido caractere por caractere, parecendo alguém digitando rápido.

Aqui está a comparação de atrito lado a lado:

EtapaBusca no GoogleChat com IA
Formular a perguntaPalavras-chaveFrase completa, como se falasse
Ver respostas concorrentesDez opções visíveisUma resposta
Julgar a fonteURL, domínio, snippetNada por padrão
ClicarSempreSem clique
Cruzar fontesAbrir segunda abaQuase nunca
Ruído de anúnciosPesadoNenhum visível

Cada etapa removida pareceu uma vitória. Cada etapa removida também era uma microverificação que você deixou de fazer.

Seu cérebro tem um atalho que diz "isso parece verdade"

Daniel Kahneman chamou os dois modos de pensar de Sistema 1 e Sistema 2 em Rápido e Devagar. O Sistema 1 é rápido, automático e roda sem pedir licença. O Sistema 2 é lento, custoso e só liga quando algo soa estranho.

A facilidade cognitiva é um dos sinais principais do Sistema 1. Quando algo é fácil de ler, fácil de processar e fácil de acompanhar, seu cérebro trata essa facilidade como prova de que o input é verdadeiro, familiar e seguro. Input difícil aciona o Sistema 2. Input fácil, não.

Uma resposta de chatbot é o pico da facilidade. A gramática é limpa. A fonte é uniforme. O tom é estável. Sem entulho de SEO, sem banner, sem layout quebrado. Seu cérebro não acha nada para questionar, então relaxa, e cérebro relaxado acredita mais rápido.

Um estudo de 1999 já explicava isso

Reber e Schwarz fizeram um experimento agora clássico chamado "Effects of perceptual fluency on judgments of truth", publicado em Consciousness and Cognition em 1999. Mostraram às pessoas as mesmas afirmações em cores que deixavam o texto fácil ou difícil de ler num fundo branco, e perguntaram quais eram verdade.

A conclusão deles, com as palavras deles: "Afirmações altamente visíveis foram julgadas verdadeiras significativamente acima do nível do acaso." As versões mais difíceis de ler ficaram no nível do acaso. Mesmo conteúdo. Mesmos fatos. A única coisa que mudou foi a facilidade visual.

Norbert Schwarz depois batizou isso de heurística da fluência. O cérebro trata a facilidade de processamento como substituto da correção. Quanto mais limpa a tipografia, mais crível a afirmação. Uma resposta de chatbot é tipograficamente perfeita, gramaticalmente correta e ritmicamente suave. Ela pontua alto em toda alavanca de fluência que o laboratório testou.

Repetição sempre funcionou. Uso diário de IA industrializa o efeito.

Hasher, Goldstein e Toppino fizeram um estudo de 1977 no Journal of Verbal Learning and Verbal Behavior que virou base do efeito de verdade ilusória. Mostraram 60 afirmações plausíveis a participantes em três sessões, separadas por duas semanas.

Os números contam a história:

SessãoAvaliação média de verdade para afirmações repetidasAvaliação média de verdade para afirmações novas
14,24,2
24,64,2
34,74,2

Só a repetição moveu as avaliações de verdade. Fazio e colegas mostraram em 2015 que mesmo quem já sabia a resposta certa era puxado pela repetição. Saber a resposta não protege contra o efeito.

Agora aplique isso a um chatbot que você consulta 20 vezes por dia. Mesma voz calma. Mesmo registro confiante. Mesma cadência polida. A própria voz se torna confiável por pura fluência repetida, não importa o conteúdo embaixo.

Uma voz única é o que seu raciocínio avalia pior

Hugo Mercier e Dan Sperber publicaram "Why do humans reason?" em Behavioral and Brain Sciences em 2011. A tese central: o raciocínio humano evoluiu antes de tudo para argumentar e avaliar afirmações de outras pessoas, não para descobrir a verdade sozinho.

O raciocínio funciona melhor no habitat dele. Dois colegas discordando no almoço. Um júri pesando os dois advogados. Um amigo derrubando sua ideia ruim. Múltiplas vozes são a situação para a qual nossa mente foi calibrada.

Uma resposta confiante e única, sem voz contrária, é a situação que nossa mente pior avalia. Não tem outro advogado. Não tem segundo jurado. O chatbot tirou o contexto de debate social que a cognição humana foi desenhada para operar dentro.

Um estudo de 2025 mostrou que a IA te faz sentir mais inteligente enquanto você fica pior

Aslanov, Felmer e Guerra publicaram um preprint no OSF em outubro de 2025 chamado "Overconfidence without Understanding: AI Explanations Increase the Illusion of Explanatory Depth", com amostra de 102 universitários.

Os estudantes que receberam explicações do ChatGPT avaliaram a própria compreensão como mais alta do que o grupo de controle. Quando pediram que explicassem o tema com as próprias palavras, esses mesmos estudantes produziram explicações menos precisas, menos variadas e menos coerentes que o grupo de controle.

O efeito é a ilusão de profundidade explicativa, documentada primeiro por Rozenblit e Keil em 2002, agora amplificada pelo chat. Você sente que entende. A explicação que consegue produzir piora.

O Google te ensinou a terceirizar memória. A IA te ensinou a terceirizar raciocínio.

Sparrow, Liu e Wegner publicaram "Google Effects on Memory" em Science em julho de 2011. Em quatro experimentos, as pessoas terceirizaram memória para os buscadores assim que esperavam que a informação fosse continuar disponível. Lembravam onde encontrar os fatos melhor do que lembravam os fatos.

Esse foi o prólogo. O estudo Microsoft de 2025 de Lee, Sarkar, Tankelevitch e colegas, com 319 trabalhadores do conhecimento, é a sequência: "Maior confiança na GenAI está associada a menos pensamento crítico, enquanto maior autoconfiança está associada a mais pensamento crítico." Quanto mais você confia na IA, menos escrutínio aplica.

Os estudos lado a lado:

EstudoAnoNAchado
Sparrow, Liu, Wegner20114 experimentosPessoas terceirizam memória para a busca; lembram onde, não o quê
Microsoft / CMU (Lee et al.)2025319Mais confiança na IA correlaciona com menos pensamento crítico
KPMG / Univ. de Melbourne202548.000 / 47 países56% cometeram erros no trabalho por não checar a IA; 57% escondem o uso da IA
Aslanov, Felmer, Guerra2025102Compreensão sentida sobe enquanto compreensão real cai depois das explicações da IA

A busca terceirizou armazenamento. O chat terceirizou o próprio passo do raciocínio. Não sobrou "onde encontrar", só "a resposta".

Isso agora é praticamente todo mundo

A mudança de comportamento deixou de ser nicho. Os números dizem que virou o novo padrão.

Sam Altman informou em julho de 2025 que o ChatGPT processa 2,5 bilhões de prompts por dia, número depois corroborado pelo Exploding Topics e pelo BusinessOfApps. A Pew Research achou em junho de 2025 que 34% dos adultos nos EUA já usaram o ChatGPT, mais ou menos o dobro de 2023, e 58% dos adultos abaixo de 30. O Search Engine Land coloca em 37% a fatia de consumidores que hoje começam a busca por uma ferramenta de IA.

O estudo global de confiança da KPMG e da Universidade de Melbourne (48.000 respondentes em 47 países, 2025) mediu o custo: 66% das pessoas usam IA com regularidade, mas só 46% se dispõem a confiar nela; 56% relatam ter cometido erros no trabalho por não terem checado o output da IA; 57% escondem completamente o uso da IA.

Uma voz confiante, usada por centenas de milhões de pessoas todos os dias, com mais da metade delas cometendo erros silenciosamente e escondendo o fato. Essa é a escala do problema dentro do qual você está construindo.

O que parece atrito saudável para quem constrói

Se você está lançando features de IA em 2026, o colapso de confiança que vinha te beneficiando é o mesmo colapso que prejudica seus usuários. A adoção precisava de menos atrito. Decisões precisam de atrito de volta, nos lugares certos.

Quatro movimentos de design trazem o atrito sem perder velocidade:

  1. Cite por padrão. Toda afirmação factual liga a uma fonte real. O usuário pode clicar. O clique é a etapa perdida do Google, devolvida. A Perplexity cresceu por causa desse único movimento.
  2. Coloque o nível de confiança na linguagem. Treine o sistema para dizer "parece que" quando não tem certeza. Proíba "é" sem fundamentação. Mostre uma pontuação de confiança onde for honesto.
  3. Rode "três ângulos em paralelo". Múltiplos agentes propõem respostas concorrentes, o sistema mostra a discordância e o usuário escolhe. A experiência dos dez links rankeados volta no nível da arquitetura, não da UI.
  4. Coloque portões de qualidade antes do output. Type checks, lint, build, verificação de retrieval, varreduras de segurança. Cada portão recusa a entrega até o teste passar. O usuário pode pensar num nível mais alto porque o sistema se recusa a fluir sem resistência.

O Build This Now, o sistema de build de IA que roda em Claude Code, entrega esses padrões por padrão. Dezoito agentes especialistas fazem o trabalho em time. Um Planner triagia uma feature. Três especialistas de planejamento analisam de ângulos diferentes. Um time Designer propõe quatro direções visuais. Um Tester separado roda contra todo output. Um Quality Gate se recusa a marcar uma feature como pronta enquanto o build não estiver limpo. A estrutura é o atrito. Um único gerador nunca te entrega uma resposta confiante isolada. Um avaliador separado sempre empurra de volta.

O mesmo padrão gerador-avaliador serve para qualquer feature de IA que você lance. Um agente escreve. Outro agente avalia. O usuário nunca lê uma voz só. Uma segunda voz é o conserto mais barato para o colapso de confiança que dá pra subir em uma semana.

Para fechar

A interface que te ensinou a parar de buscar também te ensinou a parar de checar. A ciência é mais antiga que o chatbot. A solução é mais antiga que a ciência. Adicione uma fonte, adicione uma ressalva, adicione uma segunda voz, e o cérebro que você treinou no Google volta a funcionar.

Continue in Core

  • Janela de Contexto de 1M no Claude Code
    A Anthropic ativou a janela de contexto de 1M tokens para o Opus 4.6 e o Sonnet 4.6 no Claude Code. Sem header beta, sem sobretaxa, preços fixos e menos compactações.
  • AGENTS.md vs CLAUDE.md Explicados
    Dois arquivos de contexto, um codebase. Como AGENTS.md e CLAUDE.md diferem, o que cada um faz e como usar os dois sem duplicar nada.
  • Auto Dream
    Claude Code organiza as próprias notas de projeto entre sessões. Entradas obsoletas são removidas, contradições são resolvidas, arquivos de tópico são reorganizados. Execute /memory.
  • Memória automática no código Claude
    A memória automática permite ao Claude Code manter notas de projeto em curso. Onde estão os ficheiros, o que é escrito, como é que o /memory o altera, e quando é que se deve escolher o CLAUDE.md.
  • Estratégias de Auto-Planejamento
    O Auto Plan Mode usa --append-system-prompt para forçar o Claude Code a entrar em um loop plan-first. Operações de arquivo pausam para aprovação antes de qualquer coisa ser tocada.
  • Claude Code Autónomo
    Uma stack unificada para agentes que fazem ship de funcionalidades durante a noite. As threads dão-te a estrutura, os loops Ralph dão-te a autonomia, a verificação mantém tudo honesto.

More from Handbook

  • Fundamentos do agente
    Cinco maneiras de criar agentes especializados no Código Claude: Sub-agentes de tarefas, .claude/agents YAML, comandos de barra personalizados, personas CLAUDE.md e prompts de perspetiva.
  • Engenharia de Harness para Agentes
    O harness é cada camada ao redor do seu agente de IA, exceto o modelo em si. Aprenda os cinco pontos de controle, o paradoxo das restrições, e por que o design do harness determina o desempenho do agente mais do que o modelo.
  • Padrões de Agentes
    Orchestrator, fan-out, cadeia de validação, routing especializado, refinamento progressivo e watchdog. Seis formas de orquestração para ligar sub-agentes no Claude Code.
  • Boas Práticas para Equipas de Agentes
    Padrões testados em produção para Equipas de Agentes Claude Code. Prompts de criação ricos em contexto, tarefas bem dimensionadas, posse de ficheiros, modo delegado, e correções das versões v2.1.33-v2.1.45.

Pare de configurar. Comece a construir.

Templates SaaS com orquestração de IA.

Por que estou ficando mais burro usando ChatGPT?

MIT escaneou 54 cérebros escrevendo redações com ChatGPT. A conectividade caiu pela metade, a memória colapsou, o senso de propriedade despencou. Veja o mecanismo, e a solução.

Por que a IA esquece o que acabamos de conversar?

A IA esquece no meio da conversa por causa de janelas de contexto, orçamentos de atenção e um fenômeno chamado context rot. Aqui está a ciência, e o conserto.

On this page

Você parou de checar fatos e nem percebeu
Dez links rankeados forçavam uma pausinha. Uma resposta única, não.
Seu cérebro tem um atalho que diz "isso parece verdade"
Um estudo de 1999 já explicava isso
Repetição sempre funcionou. Uso diário de IA industrializa o efeito.
Uma voz única é o que seu raciocínio avalia pior
Um estudo de 2025 mostrou que a IA te faz sentir mais inteligente enquanto você fica pior
O Google te ensinou a terceirizar memória. A IA te ensinou a terceirizar raciocínio.
Isso agora é praticamente todo mundo
O que parece atrito saudável para quem constrói
Para fechar

Pare de configurar. Comece a construir.

Templates SaaS com orquestração de IA.