“Estamos entrando em uma nova fase de guerra informacional nas plataformas de mídia social, onde os avanços tecnológicos tornaram obsoleta a abordagem clássica dos bots”, afirma Jonas Kunst, professor de comunicação na BI Norwegian Enterprise College e um dos coautores do relatório.
Para especialistas que passaram anos monitorizando e combatendo campanhas de desinformação, o documento apresenta um futuro assustador.
“E se a IA não estivesse apenas a alucinar informação, mas milhares de chatbots de IA estivessem a trabalhar em conjunto para dar o disfarce de apoio standard onde não havia nenhum? Esse é o futuro que este artigo imagina – fazendas de trolls russos com esteróides”, diz Nina Jankowicz, o ex-czar da desinformação da administração Biden, que agora é CEO do American Daylight Challenge.
Os pesquisadores dizem que não está claro se essa tática já está sendo usada porque os sistemas atuais para rastrear e identificar comportamentos inautênticos coordenados não são capazes de detectá-los.
“Devido às suas características indescritíveis de imitar os humanos, é muito difícil detectá-los e avaliar até que ponto estão presentes”, diz Kunst. “Não temos acesso à maioria [social media] plataformas porque as plataformas se tornaram cada vez mais restritivas, por isso é difícil obter uma visão delas. Tecnicamente, é definitivamente possível. Temos certeza de que está sendo testado.”
Kunst acrescentou que é provável que estes sistemas ainda tenham alguma supervisão humana à medida que estão a ser desenvolvidos e prevê que, embora possam não ter um impacto enorme nas eleições intercalares de 2026 nos EUA, em Novembro, serão muito provavelmente utilizados para perturbar as eleições presidenciais de 2028.
Contas indistinguíveis de humanos em plataformas de redes sociais são apenas um problema. A capacidade de mapear redes sociais em escala permitirá, dizem os investigadores, que os coordenadores de campanhas de desinformação tenham como alvo agentes em comunidades específicas, garantindo o maior impacto.
“Equipados com tais capacidades, os enxames podem posicionar-se para obter o máximo impacto e adaptar as mensagens às crenças e sugestões culturais de cada comunidade, permitindo uma segmentação mais precisa do que com botnets anteriores”, escrevem eles.
Tais sistemas poderiam ser essencialmente auto-aperfeiçoáveis, usando as respostas às suas postagens como suggestions para melhorar o raciocínio, a fim de transmitir melhor uma mensagem. “Com sinais suficientes, eles podem executar milhões de testes microA/B, propagar as variantes vencedoras na velocidade da máquina e iterar muito mais rápido que os humanos”, escrevem os pesquisadores.
Para combater a ameaça representada pelos enxames de IA, os investigadores sugerem a criação de um “Observatório de Influência da IA”, que consistiria em pessoas de grupos académicos e organizações não governamentais que trabalham para “padronizar as evidências, melhorar a consciência situacional e permitir uma resposta colectiva mais rápida, em vez de impor sanções de reputação de cima para baixo”.
Um grupo não incluído é o dos próprios executivos das plataformas de redes sociais, principalmente porque os investigadores acreditam que as suas empresas incentivam o envolvimento acima de tudo o resto e, portanto, têm pouco incentivo para identificar estes enxames.
“Digamos que os enxames de IA se tornem tão frequentes que você não pode confiar em ninguém e as pessoas abandonam a plataforma”, diz Kunst. “Claro que isso ameaça o modelo. Se eles apenas aumentam o engajamento, para uma plataforma é melhor não revelar isso, porque parece que há mais engajamento, mais anúncios sendo vistos, isso seria positivo para a valorização de uma determinada empresa.”
Além da falta de ação das plataformas, os especialistas acreditam que há pouco incentivo para o envolvimento dos governos. “O cenário geopolítico atual pode não ser favorável para ‘Observatórios’, essencialmente monitorando discussões on-line”, diz Olejnik, algo com que Jankowicz concorda: “O que é mais assustador neste futuro é que há muito pouca vontade política para lidar com os danos que a IA cria, o que significa [AI swarms] pode em breve ser realidade.”












