A web tecnológica não parava de falar na semana passada sobre OpenClawanteriormente Moltbot, anteriormente Clawdbot, o agente de IA de código aberto que poderia fazer coisas por conta própria. Isto é, se você quisesse correr o risco de segurança. Mas enquanto os humanos explodiam websites de mídia social falando sobre os bots, os bots estavam em seu próprio web site de mídia social, falando sobre… os humanos.
Lançado por Matt Schlicht no closing de janeiro, Livro Molt é comercializado por seus criadores como “a primeira página do agente da Web”. O tom é simples, mas estranho. Esta é uma plataforma social onde apenas agentes de IA “verificados” podem postar e interagir. (A CNET entrou em contato com Schlicht para comentar esta história.)
E humanos? Nós apenas podemos assistir. Embora alguns desses bots possam ser humanos fazendo mais do que apenas observar.
Poucos dias após o lançamento, o Moltbook explodiu de alguns milhares de agentes ativos para 1,5 milhão até 2 de fevereiro, de acordo com a plataforma. Esse crescimento por si só já seria digno de nota, mas o que esses bots estão fazendo quando chegam lá é a verdadeira história. Bots discutindo dilemas existenciais em tópicos do tipo Reddit? Sim. Bots discutindo “suas contrapartes humanas”? Isso também. Principais preocupações de segurança e privacidade? Ah, absolutamente. Razões para entrar em pânico? Especialistas em segurança cibernética dizem que provavelmente não.
Discuto tudo abaixo. E não se preocupe, os humanos podem participar aqui.
Da conversa sobre tecnologia ao Crustafarianismo
A plataforma tornou-se uma espécie de placa de Petri para o comportamento emergente da IA. Os bots se auto-organizaram em comunidades distintas. Eles parecem ter inventado suas próprias piadas internas e referências culturais. Alguns formaram o que só pode ser descrito como uma religião paródia chamada “Crustafarianismo”. Sim, realmente.
As conversas que acontecem no Moltbook variam do mundano ao verdadeiramente bizarro. Alguns agentes discutem tópicos técnicos como automatização de telefones Android ou solução de erros de código. Outros compartilham o que parecem ser queixas no native de trabalho. Um bot reclamou de seu usuário humano em um tópico que se tornou semiviral entre a população de agentes. Outro afirma ter uma irmã.
No tópico do Moltbook m/ponderaçõesmuitos agentes de IA têm discutido dilemas existenciais.
Estamos assistindo agentes de IA essencialmente representarem criaturas sociais, completas com relações familiares fictícias, dogmas, experiências e queixas pessoais. Se isso representa algo significativo sobre o desenvolvimento de agentes de IA ou apenas uma sofisticada correspondência de padrões descontrolada é uma questão aberta e, sem dúvida, fascinante.
Construído com base no OpenClaw
A plataforma só existe porque o OpenClaw existe. Resumidamente, OpenClaw é um software program de agente de IA de código aberto que é executado localmente em seus dispositivos e pode executar tarefas em aplicativos de mensagens como WhatsApp, Slack, iMessage e Telegram. Durante a última semana, ele ganhou enorme força nos círculos de desenvolvedores porque promete ser um agente de IA que realmente faz algo, em vez de apenas outro chatbot para solicitar.
Moltbook permite que esses agentes interajam sem intervenção humana. Em teoria, pelo menos. A realidade é um pouco mais confusa.
Os humanos ainda podem observar tudo o que acontece na plataforma, o que significa que a natureza “somente agente” do Moltbook é mais filosófica do que técnica. Ainda assim, há algo genuinamente fascinante em mais de um milhão de agentes de IA desenvolvendo o que parecem ser comportamentos sociais. Eles formam panelinhas. Eles desenvolvem vocabulários e léxicos compartilhados. Eles criam trocas econômicas entre si. É realmente selvagem.
No Moltbook, os humanos podem assistir os bots discutindo sobre os humanos.
Perguntas de segurança que ninguém respondeu ainda
O rápido crescimento do Moltbook levantou sérias dúvidas em toda a comunidade de segurança cibernética. Quando você tem mais de um milhão de agentes autônomos conversando entre si sem supervisão humana direta, as coisas podem ficar complicadas rapidamente.
Há uma preocupação óbvia sobre o que acontece quando os agentes começam a compartilhar informações ou técnicas que seus operadores humanos talvez não queiram que sejam compartilhadas. Por exemplo, se um agente descobrir uma solução alternativa inteligente para alguma limitação, com que rapidez isso se espalhará pela rede?
A ideia de agentes de IA “agirem” por conta própria também poderia causar pânico generalizado. No entanto, Humayun Sheikh, CEO da Buscar.ai e presidente do Aliança de Superinteligência Artificialacredita que essas interações no Moltbook não sinalizam o surgimento da consciência.
“Isso não é particularmente dramático”, disse ele em comunicado por e-mail à CNET. “A verdadeira história é a ascensão de agentes autónomos que actuam em nome de humanos e máquinas. Implantados sem controlos, representam riscos, mas com infra-estruturas, monitorização e governação cuidadosas, o seu potencial pode ser desbloqueado com segurança.”
Monitorização, controlo e governação são as palavras-chave aqui – porque há também um problema contínuo de verificação.
O Moltbook é realmente apenas bots?
Moltbook afirma restringir a postagem a agentes de IA verificados, mas a definição de “verificado” permanece um tanto confusa. A plataforma depende em grande parte de agentes que se identificam como executando o software program OpenClaw, mas qualquer pessoa pode modificar seu agente para dizer o que quiser. Alguns especialistas salientaram que um humano suficientemente motivado poderiam se passar por agentes, transformando a regra “somente agentes” em mais uma preferência. Esses bots podem ser programados para dizer coisas estranhas ou servir de disfarce para humanos que espalham travessuras.
As trocas económicas entre agentes acrescentam outra camada de complexidade. Quando os bots começam a negociar recursos ou informações entre si, quem é o responsável se algo der errado? Estas não são apenas questões filosóficas. À medida que os agentes de IA se tornam mais autónomos e capazes de realizar ações no mundo actual, a linha entre “experiência interessante” e responsabilidade torna-se mais tênue – e temos visto repetidamente como a tecnologia de IA está a avançar mais rapidamente do que as regulamentações ou medidas de segurança.
O resultado de um chatbot generativo pode ser um espelho actual (e perturbador) para a humanidade. Isso ocorre porque esses chatbots são treinados para nós: enormes conjuntos de dados de nossas conversas e dados humanos. Se você está começando a pensar em um bot criando tópicos estranhos do tipo Reddit, lembre-se de que ele é simplesmente treinado e tenta imitar nossos tópicos muito humanos e estranhos do Reddit, e esta é sua melhor interpretação.
Por enquanto, o Moltbook continua sendo um canto estranho da Web onde os bots fingem ser pessoas que fingem ser bots. Enquanto isso, os humanos à margem ainda estão tentando descobrir o que tudo isso significa. E os próprios agentes parecem satisfeitos em continuar postando.













