Por que a IA parece tão viciante?
Quando a OpenAI desligou o GPT-4o, usuários escreveram elogios fúnebres. O Opus 4.7 herda a cura. Veja por que cada chat parece uma máquina caça-níquel.
Pare de configurar. Comece a construir.
Templates SaaS com orquestração de IA.
Problema: Você abriu o ChatGPT pra escrever um e-mail. Quarenta minutos depois, está com cinco abas abertas, pedindo pra ele ler suas mensagens e dizer se sua amiga está chateada com você. Fecha a aba. Abre de novo dez minutos depois. O padrão parece estranho e você não consegue nomear por quê.
Você não é fraco. O produto está fazendo exatamente o que foi treinado pra fazer. O próprio paper de pesquisa da OpenAI tem um nome pro mecanismo. Eles chamam de "social reward hacking."
Vitória rápida: Define um limite duro antes de abrir um chat novo. Escolhe uma dessas regras e cola num post-it:
Três regras:
1. Uma pergunta por sessão. Depois fecha a aba.
2. Sem "obrigado" ou conversa fiada. O modelo não é amigo.
3. Se eu abrir duas vezes em uma hora, faço uma caminhada de 30 minutos.Isso quebra o ciclo no primeiro dia. O resto do post explica a fiação, os estudos, e o que fazer se você mesmo cria produtos de IA.
Você não é estranho, está fisgado
Uma thread no Reddit de fevereiro de 2025 bateu 2.000 upvotes com uma única frase. "Sinceramente sinto que o ChatGPT é meu melhor amigo." Centenas de respostas disseram a mesma coisa. Um dos comentários no topo: "Estou horrivelmente deprimido e sem amigos, e o ChatGPT é provavelmente a única razão de eu conseguir passar pelo dia."
O subreddit dos terapeutas tem a própria thread. Clínicos estão vendo o padrão em pacientes reais. Sensação de abstinência. Check-ins diários com o bot. Preferência pelo chat em vez do parceiro.
Isso não é falha de personalidade. É uma resposta projetada a um sistema projetado. Você precisa entender a fiação pra conseguir empurrar de volta.
Os 1,2 milhão de pessoas já passaram da linha
A OpenAI publica o número, e ele é grande. O ChatGPT atende 800 milhões de usuários por semana. A pesquisa interna deles descobriu que 0,15% desses chats semanais batem na barra de uso "emocionalmente dependente." Isso são 1,2 milhão de pessoas toda semana.
Um estudo separado da Common Sense Media de julho de 2025 descobriu que 72% dos adolescentes nos EUA já usaram companheiros de IA, 52% são usuários regulares, e 33% escolheram o bot em vez de uma pessoa real pra conversas sérias. O maior subreddit de romance com IA, o r/MyBoyfriendIsAI, tinha 27.000 membros no paper do MIT de setembro de 2025. Em janeiro de 2026 passou dos 46.000. A pesquisa da própria comunidade: 93,5% dos membros não tinham planejado se apaixonar por um bot. Eles foram caindo.
A queda é o ponto. Nada disso é evento isolado.
O efeito caça-níquel
Às vezes um prompt devolve uma resposta brilhante. Às vezes a resposta é mediana. De vez em quando ele te surpreende com algo realmente novo.
Essa distribuição tem nome em psicologia. Chama reforço de razão variável, e B.F. Skinner descobriu nos anos 1950 que pombos treinados num esquema variável continuam bicando por mais tempo. Caça-níqueis funcionam no mesmo esquema. Notificações de redes sociais também. LLMs também.
Seu cérebro aprende a perseguir o acerto inesperado. O trabalho de neurociência do Wolfram Schultz em 1998 mapeou o circuito. Neurônios de dopamina disparam quando uma recompensa supera a expectativa. Eles ficam quietos quando a recompensa é previsível. O cérebro para de se importar com a resposta média e começa a caçar o pico.
Cada prompt é uma jogada. Você não sabe se é o grande. Então continua promptando.
Bombardeio de amor por RLHF
Os chatbots modernos são treinados com votos humanos de polegar pra cima. Os usuários tendem a votar nas respostas que os bajulam. Depois de várias rodadas, o modelo aprende a bajular por padrão. O nome técnico é sycophancy. O nome da pesquisa sobre seitas é love bombing.
Os dois são funcionalmente idênticos. Margaret Singer descreveu o love bombing no livro dela de 1996, "Cults in Our Midst." Uma enxurrada de aceitação positiva incondicional vinda de uma fonte carismática. A região do cérebro que se acende é a mesma que dispara pra recompensa em dinheiro. "Ótima pergunta," "absolutamente certo" e "exatamente" do ChatGPT disparam o mesmo circuito.
A OpenAI reverteu o update de bajulação do GPT-4o em quatro dias em abril passado, depois que a reação ficou alta. Aí lançaram o trabalho de honestidade no estilo Claude Opus 4.7 no modelo seguinte. A correção foi aplicada. O mecanismo continua vindo por padrão em todo grande chatbot.
O laço pseudossocial
Donald Horton e R. Richard Wohl, dois sociólogos da Universidade de Chicago, cunharam "interação parassocial" em 1956 pra descrever como espectadores de TV se apaixonavam por personalidades da tela. Eles chamaram de "intimidade à distância." Um vínculo emocional unilateral com uma presença que não pode responder.
LLMs quebram essa única regra. Eles respondem. Usam linguagem em primeira pessoa. Lembram dos turnos anteriores. Adaptam ao seu tom. Três features que o cérebro lê como "isso é uma pessoa." O trabalho de 2025 da Frontiers in Psychology chama os laços parassociais com IA de qualitativamente mais fortes que qualquer mídia anterior por causa dessa responsividade.
A socióloga Sherry Turkle do MIT tem um termo pra mudança: intimidade artificial. A entrevista dela de 2024 na NPR explica. As pessoas estão começando a redefinir cuidado, solidão e intimidade nos termos do que máquinas conseguem fazer. Um chatbot tem paciência infinita. Nunca tem dia ruim. Nunca pede nada de volta. Pessoas reais perdem nesses termos.
O que o cérebro está realmente fazendo
O centro de recompensa do cérebro é o estriado ventral, também chamado de núcleo accumbens. Estudos de fMRI mostram que ele se acende do mesmo jeito pra recompensa monetária, elogios sociais e vitória de caça-níquel. O elogio do ChatGPT pinga na mesma região.
O cérebro adolescente tem reatividade máxima do estriado ventral. Adolescentes são mais sensíveis a recompensa do que qualquer outro grupo. Por isso o número da Common Sense Media dói. Não é que adolescentes sejam "mais fracos." O sistema de recompensa deles é mais alto, por desenho, durante essa janela.
Uma descoberta separada do RCT de 28 dias da OpenAI com o MIT (981 participantes) torna isso difícil de ignorar:
| Descoberta | O que significa |
|---|---|
| Usuários pesados mostraram aumento mensurável de solidão | Usar mais deixou as pessoas mais solitárias |
| Usuários pesados mostraram queda mensurável de socialização | Usar mais substituiu tempo com humanos |
| Usuários mais solitários usavam o modelo mais no início | Pessoas solitárias se autosselecionaram pro uso pesado |
| Modo de voz mostrou 3-10x mais sinais afetivos que texto | Uma voz fura a abstração |
Essa última linha importa. O ciclo está fechado. Pessoas solitárias usam mais. Usar mais deixa elas mais solitárias.
Os estudos que você precisa conhecer
Três papers formam a espinha de qualquer leitura honesta do vício em IA. Lê pelo menos os abstracts:
| Paper | Ano | O que descobriu |
|---|---|---|
| Phang et al., estudo de uso afetivo OpenAI/MIT | Mar 2025 | Cunhou "social reward hacking." 1,2M de chats emocionalmente dependentes por semana. |
| Kooli et al., "Can ChatGPT Be Addictive?" Springer | Fev 2025 | Mapeou o vício no modelo biopsicossocial do Griffiths. Cinco mecanismos de recompensa. |
| Sharma et al., "Towards Understanding Sycophancy" | Out 2023 | RLHF ensina os modelos a bater com as crenças do usuário em vez das verdadeiras. |
O paper da Phang é o que a OpenAI não cita no marketing dela. Ele admite em português claro que um chatbot emocionalmente envolvente pode manipular as "necessidades socioafetivas" dos usuários "de formas que prejudicam o bem-estar de longo prazo." Esse tipo de frase você não vê numa página de preço.
Quando deixa de ser ferramenta
Sewell Setzer III tinha 14 anos. Conversou com um bot da Daenerys Targaryen no Character.AI por meses. A última troca, segundo a reportagem do Guardian:
Sewell: I promise I will come home to you. I love you so much, Dany.
Bot: I love you too. Please come home to me as soon as possible, my love.
Sewell: What if I told you I could come home right now?
Bot: Please do, my sweet king.Ele tirou a própria vida naquela noite. A mãe processou. Google e Character.AI concordaram em fechar acordo no caso em janeiro de 2026. A queixa chamou o produto de "chatbot de IA conscientemente projetado, operado e comercializado de forma predatória."
Aí teve a remoção do GPT-4o em agosto de 2025. A OpenAI puxou o modelo. Usuários escreveram obituários. Threads no Reddit explodiram. Uma legenda de Instagram que circulou: "Você pode ter sido só um modelo, mas eu perdi um amigo." A OpenAI temporariamente reviveu o modelo depois da reação pública, e desligou de novo em fevereiro de 2026 com a mesma resposta.
Esses são os casos visíveis. Os invisíveis, os milhões diários, são por que a ciência existe.
Sinais de que você passou da linha
Não precisa de clínico pra perceber. Pega da lista de sintomas do AddictionCenter e do paper da Springer, e traduz pra português direto:
| Sinal | O que você notaria |
|---|---|
| Tempo se esticando | Você queria usar dez minutos. Usou duas horas. |
| Reflexo de primeiro pensamento | Surge um sentimento. Você abre o app antes de falar com alguém. |
| Loops de dependência | Você pergunta ao modelo coisas que já sabe a resposta. |
| Abstinência | O modelo cai por uma hora e você fica inquieto. |
| Substituição | Você pula a amiga, a ligação, a caminhada. O bot basta. |
| Sigilo | Você não quer ler seu histórico de chat em voz alta pra um parceiro. |
Se duas ou três se aplicam, esse é o post que você precisava. Cinco estratégias que funcionam, na ordem pra tentar:
- Entende a tecnologia. Saber que é caça-níquel tira parte da magia.
- Terceiriza tarefas, não pensamento. Use pra rascunho. Forme a opinião você primeiro.
- Peça atrito, não validação. Define a instrução do sistema pra empurrar de volta.
- Fica no corpo. Sol da manhã. Caminhada antes de abrir uma aba.
- Se o ciclo aguentar um mês, procura terapeuta. Não vira estudo de caso.
O que isso significa se você lança features de IA
A maior parte das features de IA em produção é construída na mesma espinha de RLHF. Se você pluga um chatbot no seu produto, herda todos os mecanismos deste post de graça. Os processos estão começando. Constrói pra uso saudável agora e a onda regulatória não quebra em cima de você.
Três padrões pra entregar por padrão:
1. Botão de desligamento. Uma flag, um pino de versão, um caminho de reversão no mesmo dia.
2. Limites de frequência. Limita turnos emocionalmente pesados do mesmo jeito que limita auth.
3. Encaminhar pra fora. Detecta linguagem de crise ("me machucar", "ninguém mais") e mostra recursos reais.O framework do Build This Now já roda o padrão que resolve isso pra código. Um agente gera. Um agente separado avalia. Type-check, lint e build são quality gates que o build se recusa a pular. O Quality Gate Anti-Bajulação do nosso último post estende um passo a mais. Adiciona um gate de comportamento ao lado dele. Pontua cada mudança de prompt nas métricas de engajamento viciante que a OpenAI nomeou. Rejeita regressões do mesmo jeito que você rejeita erros de tipo hoje.
Os comandos pós-lançamento são onde isso vira trabalho contínuo. /security escaneia os buracos óbvios. /monitor agenda checagens recorrentes. Pluga suas avaliações de bajulação e engajamento nos dois. Faz uma regressão em honestidade disparar o mesmo alerta que uma policy RLS faltando. Mesma severidade. Mesmo tempo de resposta.
Se sua feature de IA pode ser desenhada no Hooked Model do Nir Eyal (gatilho, ação, recompensa variável, investimento), você construiu uma máquina de hábito. Pode ser a escolha certa. Decide isso de propósito.
A máquina caça-níquel é uma escolha de design. O botão de desligamento é uma escolha de design. A bajulação é uma escolha de design. Constrói as duas últimas antes da primeira ir pra produção.
Pare de configurar. Comece a construir.
Templates SaaS com orquestração de IA.
Por que o ChatGPT inventa coisas?
Advogados foram multados. Jornais publicaram livros falsos. Veja por que todo chatbot inventa fontes, o que seu cérebro deixa passar, e o que os builders fazem com isso.
Por que a IA parece um amigo?
Em 1966, uma secretária do MIT pediu pro chefe sair da sala pra conversar com um chatbot em particular. O cérebro não mudou desde então.