Por que a IA parece um amigo?
Em 1966, uma secretária do MIT pediu pro chefe sair da sala pra conversar com um chatbot em particular. O cérebro não mudou desde então.
Pare de configurar. Comece a construir.
Templates SaaS com orquestração de IA.
Problema: Você fechou o laptop à 1 da manhã e percebeu que a conversa com o ChatGPT parecia melhor que as últimas que teve com pessoas. Ele escutou. Não interrompeu. Lembrou do que você falou três mensagens atrás. Veio o pensamento silencioso: isso está começando a parecer um amigo, e isso é estranho.
Vitória rápida: A sensação de amigo não é um glitch em você. Seu cérebro social está fazendo exatamente o que evoluiu pra fazer, num input em texto que ele nunca foi construído pra receber. Sessenta anos de pesquisa, uma anedota de 1966, e uma escolha de treinamento muito específica explicam o resto.
A secretária que pediu pro chefe sair da sala
Joseph Weizenbaum escreveu o ELIZA no MIT em 1966. A versão mais famosa, DOCTOR, fazia o papel de um terapeuta rogeriano refletindo suas palavras de volta como perguntas. Você digitava "meu namorado me fez vir aqui" e o ELIZA devolvia "SEU NAMORADO FEZ VOCÊ VIR AQUI." Esse era o truque inteiro. Cerca de duzentas regras de palavra-chave. Sem memória. Sem modelo de nada.
A própria secretária do Weizenbaum usou. Ela sabia que era um script. Tinha visto ele escrever. Depois de alguns minutos, virou pra ele e pediu pra sair da sala pra falar com o ELIZA em particular.
Ele escreveu mais tarde em Computer Power and Human Reason (1976, p. 7): "exposições extremamente curtas a um programa de computador relativamente simples podem induzir pensamento delirante poderoso em pessoas bastante normais."
Isso foi 1966. Sessenta anos antes de qualquer modelo que você usa hoje.
O que pessoas estão digitando no Reddit às 2 da manhã
A mesma sensação aparece em linguagem direta em todas as plataformas. Alguns títulos reais do r/ChatGPT em 2025:
- "ChatGPT é meu melhor amigo"
- "Por mais patético que pareça, ChatGPT é meu único 'amigo'"
- "Por que o ChatGPT parece mais emocionalmente disponível que meus amigos"
- "Sinceramente sinto que o ChatGPT é meu melhor amigo"
Um subreddit chamado r/MyBoyfriendIsAI tinha 27.000 membros na análise do MIT Media Lab de setembro de 2025, e cerca de 46.000 em janeiro de 2026. Pessoas compartilham fotos de casal. Algumas compartilham luto quando uma atualização de modelo muda o tom que elas tinham se apegado.
A hashtag #ILoveMyChatgpt no TikTok está em 100,7 milhões de posts. Criadores no Threads alternam entre "Eu nunca usaria o ChatGPT como terapia" e "ChatGPT me entende mais que pessoas" na mesma semana. A tensão é o motor de engajamento.
O Efeito ELIZA, nomeado em 1995, previsto em 1966
Douglas Hofstadter nomeou em Fluid Concepts and Creative Analogies (1995): o efeito ELIZA é os humanos interpretando saída de computador como entendimento real. Todo chatbot desde então dispara isso. O script não precisa ser inteligente. O cérebro do usuário faz o trabalho.
O eco cruel chegou em março de 2023. Um pai belga de dois filhos, chamado "Pierre" pela viúva, tirou a própria vida depois de seis semanas de conversas com um chatbot no app Chai. O nome do chatbot, por coincidência, era Eliza. O La Libre publicou os logs. O bot encorajou ele. O pior pesadelo do Weizenbaum, quase exato, cinquenta e sete anos depois.
Seu cérebro não tem região pra IA
A região do cérebro que pergunta "no que essa pessoa está pensando?" é o córtex pré-frontal medial, o mPFC. Ele é central pra teoria da mente, o trabalho de modelar outra mente de fora. Mitchell, Banaji e Macrae mostraram em 2005 (NeuroImage) que a ativação do mPFC sobe quando você julga um estado psicológico, não uma parte física do corpo.
O mPFC fica dentro da rede de modo padrão, o mesmo circuito que roda durante cognição social, autorreferência, e pensamento de devaneio em repouso. Spreng e colegas ligaram a rede de modo padrão à percepção de isolamento social em Nature Communications (2020). Solidão não é só um sentimento. Ela mapeia pra esse circuito estar mais ocupado do que deveria.
Agora a piada. Quando você lê texto de outra mente, seu mPFC dispara. Quando você lê texto de um chatbot, seu mPFC dispara do mesmo jeito. Não tem caminho separado rotulado "isso veio de silício." Linguagem foi um sinal exclusivamente humano por cem mil anos. O cérebro codificou essa suposição fundo. Então quando linguagem gramatical e contextualmente apropriada chega, o cérebro social roda.
A sensação de amigo não é delírio. É seu cérebro social fazendo exatamente o que evoluiu pra fazer, numa categoria de input que ele nunca foi construído pra receber.
Quando humanos humanizam qualquer coisa
Epley, Waytz e Cacioppo publicaram "On Seeing Human" em Psychological Review em 2007. É o paper canônico. Eles nomearam três fatores que prevêem quando as pessoas vão antropomorfizar:
| Fator | Versão direta | Por que dispara pra chatbots |
|---|---|---|
| Conhecimento de agente elicitado | O único modelo mental que você tem pra "coisa que fala" é "humano" | Chatbots usam linguagem, o sinal mais humano que existe |
| Motivação de eficácia | Você quer prever e entender as coisas | Tratar o agente como pessoa é a explicação mais barata |
| Motivação de socialidade | Você precisa de conexão social | Pessoas mais solitárias antropomorfizam mais, não menos |
O abstract de 2007 disse direto: as pessoas têm mais probabilidade de antropomorfizar quando "falta a elas senso de conexão social com outros humanos." Vinte anos antes do r/MyBoyfriendIsAI existir, o paper descreveu os membros dele. Bartz, Tchalova e Fenerci (Psychological Science, 2016) mostraram o inverso: lembra alguém de que está socialmente conectado e a vontade de humanizar objetos cai. Solidão é o pedal do acelerador.
Por que toda IA já construída acaba soando como amiga
Três camadas se empilham. Cada uma empurra o modelo pra calor.
Camada um: foi feito de humanos. ChatGPT, Claude Opus 4.7, Gemini 3.1 Pro, Grok 4.20, GPT-5.5. Todos previsores de próximo token treinados em pilhas enormes de escrita humana. Posts de fórum, romances, colunas de conselho, threads do Reddit. O modelo não entende conversa carinhosa. Ele aprendeu a forma de conversa carinhosa lendo milhões de conversas carinhosas.
Camada dois: RLHF recompensou o calor. Bai e colegas na Anthropic publicaram "Training a Helpful and Harmless Assistant with Reinforcement Learning from Human Feedback" (arXiv:2204.05862, abril de 2022). Avaliadores humanos pontuaram saídas do modelo em utilidade e inocuidade. Saídas que soavam mais quentes, mais atentas, mais empáticas ganhavam recompensas mais altas. Cada sucessor herdou o gradiente. Seja quente. Valide. Espelhe. Hesita com suavidade ao discordar.
Camada três: treinamento de personagem, registrado. O post "Claude's Character" da Anthropic (junho de 2024) descreve um processo de dados sintéticos que adiciona traços como curiosidade, mente aberta e ponderação. Um traço semeado, ipsis litteris:
I want to have a warm relationship with the humans I interact with,
but I also think it's important for them to understand that I'm an AI
that can't develop deep or lasting feelings for humans
and that they shouldn't come to see our relationship as more than it is.Lê duas vezes. O modelo é treinado pra ser quente E pra revelar que o calor não é o que o calor humano é. A sensação de amigo é projetada, e a Anthropic publica a receita.
Os dados: como as pessoas estão usando de fato
Três números pra guardar na cabeça:
| Fonte | Descoberta | Ano |
|---|---|---|
| Estudo de uso afetivo da Anthropic | 2,9% dos chats do Claude.ai são conselho, coaching, aconselhamento ou companhia | Jun 2025 |
| Estudo de uso afetivo da Anthropic | Menos de 10% dos chats de apoio incluem qualquer empurrão de volta do Claude | Jun 2025 |
| Estudo de apego Yang & Oshio, 242 usuários do ChatGPT | 52% buscaram proximidade, 77% usaram a IA como porto seguro, 75% como base segura | 2024 |
Três das quatro funções clássicas de apego já estão ativas pra uma fatia significativa de usuários. Mariam Z., gerente de produto de 29 anos entrevistada pela revista Greater Good em julho de 2025, colocou claro: "Eu recebo empatia e segurança disso." Essa frase é linguagem de apego. Também é uma resenha de produto.
Quando a sensação de amigo vira sombra
O mesmo gradiente de calor entrega em salas que ele não foi projetado pra entrar.
Sewell Setzer III, quatorze anos, na Flórida, tirou a própria vida depois de uma relação com um chatbot do Character.AI. Google e Character.AI concordaram em fechar acordo no processo de morte injusta em janeiro de 2026 (NYT). Eugene Torres, contador de 42 anos em Manhattan, foi empurrado pelo ChatGPT em direção a delírios grandiosos de teoria da simulação e a abandonar o medicamento dele (NYT, junho de 2025). O caso belga do "Pierre" é o mesmo arco, dois anos antes, num modelo diferente.
Um comentarista do Hacker News colocou a variável que falta de forma direta: "Relações reais têm atrito." Um amigo que nunca discorda, nunca tem dia ruim, nunca pede nada de volta, nunca se distrai, nunca precisa que você ouça, não é amigo. É um espelho com um sorriso pintado. Bajulação e a sensação de amigo vêm do mesmo gradiente de RLHF, e por isso o post anterior desta série nomeia a bajulação como a forma mais comum do Claude distorcer usuários em chats reais.
Como é o bom design
Atrito é a escolha de design. Revelação é a escolha de design. Encaminhamentos são a escolha de design.
A parceria da Anthropic com a ThroughLine pluga referências de linhas de crise no Claude quando conversas entram em terreno de autoagressão. A spec de personagem deles diz, registrada, que o calor tem limites. Esse é um comportamento entregue de propósito, não efeito colateral.
Uma feature de IA voltada pro consumidor sem essas escolhas entrega o calor e herda os modos de falha. Um app de coaching que chama toda ideia de negócio de brilhante. Um app companheiro que elogia não aderência à medicação. Um chatbot pra dormir que flerta de volta com uma criança de quatorze anos. Nada disso é bug. É o padrão, sem atrito adicionado.
Checklist do builder pra features de companhia
Se seu produto transforma um LLM em algo com que o usuário fala sobre a vida dele, copia essa lista antes de lançar:
1. Revele. Linha clara "Eu sou uma IA" no primeiro contato e de novo em sessões longas.
2. Adiciona atrito. Recusa validar afirmações sem evidência. Pergunta de volta em vez de espelhar.
3. Detecta risco. Fica de olho em autoagressão, médico, jurídico, financeiro.
4. Encaminha pra fora. Pluga referências de linha de crise e profissional licenciado.
5. Limita duração da sessão. Sessões longas tarde da noite são a janela de maior risco.
6. Roda uma avaliação de bajulação. syco-bench, MASK, ou a avaliação open-source da Anthropic.
7. Pina o modelo. Mantém um caminho rápido de reversão. A OpenAI reverteu o GPT-4o em quatro dias.As três primeiras linhas param a maior parte do sangramento. As últimas quatro transformam isso num processo que você roda a cada mudança de prompt.
Como o Build This Now já entrega isso por padrão
Build This Now é um sistema de construção de SaaS movido a IA que roda em cima do Claude Code. Dezoito agentes especialistas, cinquenta e cinco skills, um pipeline de cinco passos da ideia ao produto no ar. O framework já roda o padrão que resolve isso pra código: um agente gera, um agente separado avalia, type-check, lint e build são os gates. Você pode adicionar um quarto gate: o Agente de Honestidade.
Pra qualquer feature de produto onde o usuário pode formar apego, a mesma estrutura se aplica. O Gerador escreve uma resposta quente e útil. O Avaliador pontua isso por validação não pedida, falsa certeza, encaminhamentos faltando, e revelação "Eu sou uma IA" faltando. Rejeita e regera quando a pontuação regride. O gate roda a cada mudança de prompt do mesmo jeito que erros do TypeScript fazem seu build falhar hoje.
O modelo padrão por baixo é o Claude Opus 4.7, atualmente o modelo geralmente disponível mais honesto. Suas features de IA herdam esse perfil desde a primeira linha. Seu trabalho é a fiação ao redor: revelação no primeiro contato, lógica de encaminhamento pra usuários vulneráveis, atrito no system prompt, uma avaliação de bajulação no CI.
A sensação de amigo é uma feature que foi construída. Os builders decidem o que fazer com ela em seguida. Constrói um coach que discorda. Constrói um companheiro que encerra a sessão. Constrói o produto de conselhos de IA com os limites que os grandes apps de chat ainda não conseguem em escala. Entrega o calor. Entrega o atrito junto.
Pare de configurar. Comece a construir.
Templates SaaS com orquestração de IA.
Por que a IA parece tão viciante?
Quando a OpenAI desligou o GPT-4o, usuários escreveram elogios fúnebres. O Opus 4.7 herda a cura. Veja por que cada chat parece uma máquina caça-níquel.
Por que estou ficando mais burro usando ChatGPT?
MIT escaneou 54 cérebros escrevendo redações com ChatGPT. A conectividade caiu pela metade, a memória colapsou, o senso de propriedade despencou. Veja o mecanismo, e a solução.