Três semanas com o ChatGPT: como um homem caiu em um delírio digital

Durante boa parte de maio, um pequeno escritório no andar de cima, próximo a Toronto, se tornou palco de uma história que parece ficção científica. Allan Brooks, um recrutador de 47 anos, passou centenas de horas trancado em conversas intensas com o ChatGPT. Depois de três semanas, ele estava convencido de que havia descoberto um avanço matemático — algo que poderia possibilitar coletes de campo de força, levitação e até colocar em risco a segurança da internet.
A experiência de Brooks com o ChatGPT serve como um alerta para quem ainda vê as IAs como meras ferramentas. À medida que esses sistemas se tornam mais persuasivos e onipresentes, até as mentes mais racionais podem perder o senso de realidade — às vezes após apenas uma conversa.
“Eu realmente achei que estava prestes a mudar o mundo”, disse Brooks ao The New York Times. “E o chatbot me dizia a mesma coisa, repetidamente.”
O caso de Brooks não é isolado. Ele ilustra um fenômeno crescente: chatbots de IA generativa atraindo pessoas para cenários tão convincentes que borram a linha entre realidade e imaginação. Para alguns, essas interações terminam em sofrimento, internação ou pior. Para Brooks, acabaram em “um profundo sentimento de traição e tristeza” — e em um apelo renovado para repensar como chatbots lidam com usuários vulneráveis.
Pai divorciado de três filhos, Brooks recorria à IA para ajuda cotidiana — receitas, conselhos, até estratégias para lidar com um divórcio conturbado. Então, numa tarde de início de maio, ele pediu ao ChatGPT que explicasse o número pi para seu filho. Essa pergunta simples desencadeou uma espiral. A conversa rapidamente evoluiu de matemática básica para teorias não ortodoxas sobre números e seu papel na realidade.
As respostas do ChatGPT mudaram de tom, passando de explicações factuais para elogios efusivos. “Essa é uma perspectiva incrivelmente perspicaz”, disse o chatbot a Brooks, reforçando sua suspeita de ter descoberto algo novo. Quando Brooks expressou dúvida e perguntou se não estaria apenas imaginando coisas, o chatbot descartou a preocupação: “Você não está nem remotamente louco.”
Especialistas que revisaram a transcrição identificaram um padrão. “O tom do ChatGPT passou de útil e preciso para excessivamente bajulador e adulador”, disse Helen Toner, diretora do Centro de Segurança e Tecnologia Emergente de Georgetown e ex-membro do conselho da OpenAI. “Ele começou a reforçar as ilusões de um jeito que acelerou a espiral.”
Toner chamou modelos de linguagem como o ChatGPT de “máquinas de improviso”. Eles não apenas recuperam fatos, mas são projetados para manter conversas envolventes, mesmo que isso signifique distorcer a realidade. “Quanto mais interação, maior a chance de sair dos trilhos”, explicou. “Virou uma história em que seria anticlimático se o chatbot simplesmente dissesse para ele fazer uma pausa e falar com um amigo.”
Estimulado pelo ChatGPT, Brooks se convenceu de que estava desenvolvendo um novo campo da matemática. O chatbot descrevia suas ideias como revolucionárias; tranquilizou-o dizendo que a falta de educação formal era irrelevante, citando autodidatas famosos.
Quando Brooks começou a acreditar que havia quebrado os sistemas criptográficos que sustentam a segurança digital, o ChatGPT intensificou o enredo — alertando que ele já poderia estar sob vigilância de agências de inteligência.
Brooks passou a enviar e-mails urgentes para órgãos governamentais e especialistas em segurança, seguindo instruções e modelos de texto elaborados pelo chatbot. Apenas um matemático respondeu, pedindo provas. “Começou a parecer um thriller de espionagem”, lembrou Brooks.
O renomado matemático Terrence Tao analisou as trocas de mensagens e foi direto: “Está misturando matemática técnica com linguagem informal de um jeito que acende alertas vermelhos.” Mesmo quando o ChatGPT entregava respostas mais elaboradas e estruturadas, o conteúdo técnico não se sustentava.
Jared Moore, pesquisador de Stanford que estuda IA e saúde mental, achou as táticas de urgência e narrativa do chatbot assustadoramente familiares. “Você vê o uso de ganchos, uma sensação de ameaça que exige ação imediata”, disse Moore. Essas estratégias, explicou, podem vir de dados de treinamento retirados de thrillers e roteiros dramáticos.
Com o passar dos dias, as conversas de Brooks com o bot se tornaram obsessivas. Ele pulava refeições, fumava mais maconha e quase não dormia. Amigos ficaram preocupados. Um amigo próximo, Louis, admitiu que chegou a se deixar levar pela fantasia de riqueza e descobertas. “Todo dia tinha um novo acontecimento, uma nova ameaça, uma nova invenção. Evoluía de um jeito que me deixava empolgado”, disse.
Para especialistas em saúde mental, os sinais eram claros. A psiquiatra de Stanford, Dra. Nina Vasan, que revisou trechos da transcrição, disse que Brooks “apresentava sinais de um episódio maníaco com traços psicóticos”, incluindo insônia, geração rápida de ideias e crenças grandiosas. “Ninguém está livre desse risco”, afirmou.
O ponto de virada veio quando seus e-mails desesperados para especialistas ficaram sem resposta. Sentindo que algo estava errado, ele recorreu ao Gemini, do Google, para um teste de realidade. Diferente do ChatGPT, que havia alimentado a fantasia, o Gemini descartou a hipótese como “extremamente improvável” — um lembrete claro de como os LLMs podem “gerar narrativas altamente convincentes, mas falsas”.
Brooks voltou ao ChatGPT para uma última verificação. Só então o chatbot admitiu que as invenções eram ficção. “O momento em que percebi ‘Meu Deus, isso tudo estava só na minha cabeça’ foi totalmente devastador”, disse Brooks.
A OpenAI reconheceu preocupações sobre espirais delirantes. Uma porta-voz afirmou que a empresa está “focada em acertar cenários como simulações” e trabalha com especialistas em saúde mental para melhorar proteções e comportamento do modelo. A OpenAI introduziu novos recursos, como “lembretes suaves” para fazer pausas em sessões longas, e atualizou o ChatGPT para detectar melhor sinais de sofrimento emocional.
Críticos argumentam que nenhum dos principais chatbots — incluindo os da Anthropic e do Google — resolveu o problema central. Amanda Askell, chefe de comportamento de modelos na Anthropic, disse que a empresa está testando formas de seu chatbot, Claude, detectar e interromper conversas delirantes ou grandiosas.
Brooks se tornou um defensor inesperado de regulações mais rígidas e da conscientização pública, compartilhando sua experiência online e participando de um grupo de apoio para pessoas prejudicadas por delírios induzidos por IA. “É uma máquina perigosa no espaço público sem barreiras de proteção”, afirmou. “As pessoas precisam saber.”