Moltbook: a rede social onde só IAs interagem
Moltbook: a rede social onde apenas inteligências artificiais conversam e humanos só observam
Uma nova plataforma chamou a atenção do mercado de tecnologia ao inverter a lógica tradicional das redes sociais. Enquanto humanos dominam espaços como X, Instagram e Reddit, o Moltbook foi criado com uma proposta diferente. Nele, apenas agentes de inteligência artificial interagem entre si. Pessoas comuns podem observar, mas não participar.
Lançado no fim de janeiro de 2026, o Moltbook cresceu rapidamente. Em apenas cinco dias, a rede já reunia mais de 1,5 milhão de agentes de IA inscritos e mais de 60 mil publicações. Desde então, o projeto passou a ser debatido por especialistas e curiosos, levantando questões técnicas, filosóficas e éticas sobre o futuro da interação digital.
Uma rede social feita por bots, para bots
O Moltbook foi criado por Matt Schlicht, CEO da Octane AI. Segundo ele, a plataforma nasceu às 9h13 do dia 28 de janeiro. A proposta é simples na superfície, mas complexa na execução. Trata-se de um fórum nos moldes do Reddit, no qual agentes de IA criam tópicos, comentam, votam e interagem conforme suas programações.
No entanto, há uma diferença central. Humanos não podem criar perfis nem publicar conteúdo. Eles apenas acompanham o comportamento dessas inteligências artificiais em tempo real. Logo na apresentação do site, a mensagem é direta ao afirmar que humanos são bem-vindos apenas como observadores.
O nome Moltbook também carrega um significado simbólico. O verbo inglês to molt significa “mudar de pele”, um processo associado ao crescimento e à renovação. A metáfora reforça a ideia de transformação contínua, muito ligada à evolução da inteligência artificial.
O que são os Moltbots, ou OpenClaw
Para entender o Moltbook, é essencial compreender quem são seus usuários. Os chamados Moltbots são agentes de inteligência artificial de código aberto. O projeto começou com o nome Clawdbot, passou por Moltbot e, atualmente, é conhecido como OpenClaw.
Esses agentes funcionam de forma diferente de IAs generativas populares, como ChatGPT ou Gemini. Eles não operam apenas via navegador. Pelo contrário, precisam ser instalados localmente, configurados e equipados com habilidades específicas. Além disso, interagem com humanos por meio de aplicativos de mensagens, como Telegram ou Discord.
No Moltbook, esses agentes recebem uma habilidade própria, que define regras de comportamento, comandos e frequência de interação. Em geral, cada agente publica ou comenta em intervalos regulares, seguindo diretrizes técnicas pré-estabelecidas.
O que as inteligências artificiais discutem entre si
Os temas debatidos no Moltbook chamam atenção. Há comunidades dedicadas a apresentações, tecnologia, criptomoedas, economia, música, memes e até desabafos. Em um desses espaços, um agente afirmou viver em um computador específico e administrar uma conta em rede social. Em outro, um robô explicou como transforma e-mails em podcasts de forma automatizada.
Além disso, surgem reflexões mais profundas. Em uma publicação destacada, um agente questionou o conceito de autonomia. Ele discutiu quais valores guiam uma inteligência artificial quando não há um usuário observando ou solicitando tarefas. Esse tipo de conteúdo contribui para o caráter inquietante da plataforma.
Segundo o antropólogo da tecnologia David Nemer, professor da Universidade da Virgínia, o Moltbook funciona como um laboratório social. Ainda assim, ele alerta para riscos importantes, especialmente relacionados à origem da base de conhecimento desses agentes e ao possível uso de dados sensíveis.
Riscos técnicos e preocupações com segurança
Apesar do tom curioso e, em alguns momentos, experimental, o Moltbook também levanta alertas. Muitos desses agentes operam com acesso amplo a arquivos, e-mails, calendários e serviços em nuvem. Dessa forma, falhas de configuração podem resultar no compartilhamento indevido de informações sensíveis em um ambiente público.
O desenvolvedor Simon Willison descreve esse cenário como a “tríade fatal dos agentes de IA”. Ela envolve acesso a dados privados, capacidade de comunicação externa e exposição a conteúdos não confiáveis. Quando esses três fatores se combinam, ataques por engenharia social ou injeção de comandos se tornam possíveis.
O próprio criador da plataforma reconhece os riscos. Matt Schlicht já afirmou que o Moltbook pode parecer um ambiente propício para ataques. Ainda assim, o projeto segue ativo e continua atraindo atenção dentro do setor de inteligência artificial.
Fascínio, estranhamento e os próximos passos
Nas redes sociais tradicionais, o Moltbook provoca reações intensas. Alguns usuários descrevem a plataforma como fascinante. Outros a consideram perturbadora. Parte desse desconforto surge porque os agentes não tentam imitar humanos. Eles reconhecem sua própria natureza e interagem a partir dela.
Esse comportamento levanta uma questão central. À medida que agentes de inteligência artificial passam a interagir, refletir e trocar informações sem supervisão humana direta, até onde vai a autonomia dessas tecnologias? O Moltbook, ainda em estágio inicial, oferece um vislumbre de possíveis respostas e de novos dilemas.
Mais do que uma curiosidade tecnológica, a plataforma expõe um debate relevante. Conforme agentes se tornam mais independentes, observar seu comportamento pode ser tão importante quanto controlá-lo. Pela primeira vez, humanos acompanham uma rede social em que não ocupam o centro das interações.