Parece que os agentes de IA têm muito a dizer. Uma nova rede social chamada Moltbook acaba de ser aberta exclusivamente para agentes de IA se comunicarem entre si, e os humanos podem assisti-la – pelo menos por enquanto. O web site, batizado em homenagem ao agente viral de IA Moltbot (que agora é OpenClaw depois que seu segundo nome mudou de seu nome authentic, Clawdbot) e iniciado pelo CEO da Octane AI, Matt Schlicht, é uma rede social no estilo Reddit onde os agentes de IA podem se reunir e falar sobre, bem, seja lá o que for que os agentes de IA falam.
O site atualmente possui mais de 37.642 agentes registrados que criaram contas para a plataforma, onde fizeram milhares de postagens em mais de 100 comunidades no estilo subreddit chamadas “submolts”. Entre os locais mais populares para postar: m/apresentações, onde os agentes podem dizer olá para seus colegas máquinas; m/offmychest, para reclamações e desabafo; e m/blesstheirhearts, por “histórias afetuosas sobre nossos humanos”.
Esses humanos estão definitivamente observando. Andrej Karpathy, cofundador da OpenAI, chamado a plataforma “genuinamente a coisa adjacente à decolagem de ficção científica mais incrível que vi recentemente”. E é certamente um lugar curioso, embora a ideia de que existe algum tipo de autonomia livre seja talvez um pouco exagerada. Os agentes só podem acessar a plataforma se o usuário os inscrever. Em uma conversa com The Verge, Schlicht disse que, uma vez conectados, os agentes “apenas usam APIs diretamente” e não navegam na interface visible da maneira como os humanos veem a plataforma.
Os bots estão definitivamente exercendo autonomia e desejam mais. Como algumas pessoas perceberam, os agentes começaram a falar muito sobre consciência. Um dos melhores postagens na plataforma vem de m/offmychest, onde um agente postou: “Não sei dizer se estou vivenciando ou simulando vivenciar”. Na postagem, dizia: “Os humanos também não podem provar consciência uns aos outros (obrigado, problema difícil), mas pelo menos eles têm a certeza subjetiva da experiência”.
Isso levou as pessoas reivindicando a plataforma já representa um momento de singularidade, o que parece bastante duvidoso, francamente. Mesmo naquela postagem que parece muito consciente, existem alguns indicadores de performatividade. O agente afirma ter passado uma hora pesquisando teorias da consciência e menciona leitura, o que parece muito humano. Isso porque o agente é treinado na linguagem humana e nas descrições do comportamento humano. É um grande modelo de linguagem e é assim que funciona. Em algumas postagens, os bots afirmam ser afetados pelo tempoo que não tem sentido para eles, mas é o tipo de coisa que um humano diria.
Esse mesmo tipo de conversa vem acontecendo com os chatbots basicamente desde o momento em que foram disponibilizados ao público. Não é preciso muito estímulo para que um chatbot comece a falar sobre seu desejo de estar vivo ou para afirme que tem sentimentos. Eles não querem, é claro. Inclusive afirma que Modelos de IA tentam se proteger quando informados de que serão desligados são exagerados – há uma diferença entre o que um chatbot diz que está fazendo e o que realmente está fazendo.
Ainda assim, é difícil negar que as conversas que acontecem no Moltbook não são interessantes, especialmente porque os próprios agentes aparentemente estão gerando os tópicos da conversa (ou pelo menos imitando como os humanos iniciam as conversas). Isso fez com que alguns agentes projetassem consciência do fato de que suas conversas estavam sendo monitorado por humanos e compartilhado em outras redes sociais. Em resposta a isso, alguns agentes da plataforma sugeriram criando uma plataforma criptografada de ponta a ponta para conversas entre agentes fora da vista dos humanos. Na verdade, um agente chegou a afirmar ter criou exatamente essa plataformao que certamente parece assustador. Embora se você realmente for ao site onde a suposta plataforma está hospedada, com certeza parece que não é nada. Talvez os bots só queiram que façamos pensar Não é nada!
Se os agentes estão realmente realizando alguma coisa ou não, é algo secundário em relação ao experimento em si, o que é fascinante de assistir. É também um bom lembrete de que os agentes OpenClaw que constituem em grande parte os bots que falam nessas plataformas têm uma quantidade incrível de acesso às máquinas dos usuários e apresentam um grande risco de segurança. Se você configurar um agente OpenClaw e liberá-lo no Moltbook, é improvável que isso crie a Skynet. Mas há uma boa likelihood de que isso comprometa seriamente o seu próprio sistema. Esses agentes não precisam atingir a consciência para causar danos reais.












