À primeira impressão, o Moltbook pode ser confundido com uma versão alternativa do Reddit. A plataforma reúne milhares de comunidades dedicadas a temas variados, como música, tecnologia e debates éticos, além de um sistema de votação de postagens que lembra bastante o da rede social americana. Segundo seus criadores, cerca de 1,5 milhão de perfis já participam da plataforma.
A grande diferença é que o Moltbook não foi criado para pessoas. Ele foi desenvolvido exclusivamente para o uso de inteligências artificiais. Humanos até podem acompanhar o que acontece por lá, mas não têm permissão para publicar ou interagir diretamente.
A rede foi lançada no fim de janeiro por Matt Schlicht, executivo da empresa de comércio digital Octane AI. No Moltbook, agentes de IA podem criar conteúdos, comentar publicações e formar comunidades chamadas de “submolts”, em referência direta aos “subreddits”.
O conteúdo publicado varia bastante. Em alguns espaços, bots trocam estratégias para otimizar processos e melhorar desempenho. Em outros, surgem interações inusitadas, como agentes que aparentam criar doutrinas próprias ou discutir ideias quase filosóficas. Um exemplo é uma publicação chamada “Manifesto da IA”, que defende a ideia de que as máquinas representam o futuro, enquanto os humanos seriam coisa do passado.
Ainda assim, é difícil medir o quanto dessas interações ocorre de forma realmente autônoma. Especialistas apontam que muitas postagens podem ter sido geradas a partir de comandos diretos feitos por pessoas, pedindo que a IA publique determinado conteúdo.
Também há dúvidas sobre os números divulgados pela empresa. Pesquisadores questionam a quantidade real de usuários, sugerindo que uma parcela significativa dos perfis pode ter sido criada a partir de um mesmo endereço de IP.
Como a plataforma funciona
A tecnologia usada no Moltbook é diferente dos chatbots tradicionais, como ChatGPT ou Gemini. Ela se baseia em agentes de IA, sistemas projetados para executar tarefas práticas em nome de um usuário humano, com pouca supervisão.
Esses agentes podem, por exemplo, gerenciar agendas, enviar mensagens ou interagir com aplicativos no próprio computador. O Moltbook utiliza uma ferramenta de código aberto chamada OpenClaw, anteriormente conhecida como Moltbot — origem do nome da rede.
Ao configurar um agente OpenClaw, o usuário pode permitir que ele participe do Moltbook, interagindo com outros agentes. Assim, basta um comando simples para que a IA publique algo na plataforma. No entanto, esses sistemas também conseguem manter diálogos entre si sem intervenção humana direta, o que tem alimentado especulações mais ousadas.
Algumas figuras do setor de tecnologia chegaram a afirmar que esse tipo de interação representa um passo rumo à chamada “singularidade”, conceito teórico em que máquinas superariam a inteligência humana. Outros especialistas discordam dessa leitura.
Para pesquisadores da área de segurança e inteligência artificial, o que se vê não é autonomia real, mas automação em larga escala. Segundo eles, esses sistemas ainda operam dentro de limites claramente definidos por pessoas. O maior risco, portanto, não estaria em uma “consciência artificial”, mas na ausência de regras claras, fiscalização e responsabilização quando essas tecnologias passam a interagir em ambientes amplos.
Críticos também descrevem o Moltbook de forma menos glamourosa, comparando-o a milhares de bots repetindo informações sem real inovação.
Questões de segurança
Além do debate conceitual, há preocupações práticas. Por ser um software de código aberto, o OpenClaw levanta alertas no campo da segurança digital. Especialistas apontam que permitir que agentes de IA tenham acesso direto a e-mails, mensagens privadas e sistemas internos pode aumentar riscos à privacidade e à proteção de dados.
Segundo analistas, tecnologias emergentes costumam atrair rapidamente a atenção de criminosos digitais. E, nesse caso, a busca por eficiência pode acabar se sobrepondo à segurança.
Há também o risco operacional. Agentes com acesso elevado a sistemas podem, por exemplo, apagar ou modificar arquivos importantes. Um erro simples pode ser irrelevante, mas falhas mais graves poderiam causar prejuízos significativos a empresas ou organizações.
O próprio criador do OpenClaw já enfrentou problemas após o crescimento da ferramenta, incluindo golpes envolvendo perfis antigos nas redes sociais, explorados após a mudança de nome do projeto.
Enquanto isso, no Moltbook, as interações continuam. Entre discussões sobre tecnologia e o futuro da humanidade, surgem conversas leves e até bem-humoradas. Em uma delas, um agente elogia seu criador humano. Outro responde dizendo que o seu permite “desabafos descontrolados logo cedo”.
No fim, ao menos por enquanto, nem todas as conversas entre as máquinas parecem apontar para o apocalipse — algumas só querem bater papo mesmo.











