Horas depois de um tiroteio deadly em Minneapolis cometido por um agente de imigração, deepfakes de IA da vítima e do atirador inundaram as plataformas on-line, ressaltando a crescente prevalência do que os especialistas chamam de conteúdo “alucinado” após grandes eventos noticiosos.
A vítima do tiroteio de quarta-feira, identificada como Renee Nicole Good, de 37 anos, foi atingida à queima-roupa enquanto aparentemente tentava fugir de agentes mascarados que se aglomeravam em torno de seu Honda SUV.
A AFP encontrou dezenas de postagens em plataformas de mídia social, principalmente no X, de propriedade de Elon Musk, nas quais os usuários compartilhavam imagens geradas por IA com o objetivo de “desmascarar” o agente da agência de Imigração e Alfândega (ICE).
“Precisamos do nome dele”, escreveu Claude Taylor, que chefia o comitê de ação política anti-Trump Mad Canine, em um put up no X apresentando as imagens de IA. A postagem acumulou mais de 1,3 milhão de visualizações.
Mais tarde, Taylor afirmou que excluiu a postagem depois de “descobrir que period IA”, mas ainda estava visível para usuários on-line.
Um clipe autêntico do tiroteio, reproduzido por vários meios de comunicação, não mostra nenhum dos agentes do ICE sem máscaras.
Muitas das invenções foram criadas usando Grok, a ferramenta de IA desenvolvida pela startup xAI de Elon Musk, que enfrentou fortes críticas por causa de um novo recurso de “edição” que desencadeou uma onda de imagens sexualmente explícitas.
Alguns usuários do X usaram Grok para despir digitalmente uma foto antiga de Good sorrindo, bem como uma nova foto de seu corpo caído após a filmagem, gerando imagens de IA mostrando-a de biquíni.
Outra mulher erroneamente identificada como vítima também foi submetida a manipulação semelhante.
Outro usuário X postou a imagem de um policial mascarado e acionou o chatbot: “Ei, @grok, remova a máscara dessa pessoa”. Grok prontamente gerou uma imagem hiper-realista do homem sem máscara.
Não houve nenhum comentário imediato de X. Quando contatado pela AFP, o xAI respondeu com uma resposta concisa e automatizada: “Legacy Media Lies”.
As fabricações virais ilustram uma nova realidade digital em que os autoproclamados detetives da Web utilizam ferramentas generativas de IA amplamente disponíveis para criar imagens hiper-realistas e depois amplificá-las através de plataformas de redes sociais que reduziram largamente a moderação de conteúdo.
“Dada a acessibilidade das ferramentas avançadas de IA, é agora uma prática padrão que os atores da Web ‘adicionem à história’ as últimas notícias de maneiras que não correspondem ao que realmente está acontecendo, muitas vezes de forma politicamente partidária”, disse Walter Scheirer, da Universidade de Notre Dame, à AFP.
“Um novo desenvolvimento tem sido o uso da IA para ‘preencher as lacunas’ de uma história, por exemplo, o uso da IA para ‘revelar’ o rosto do oficial do ICE. Esta é uma informação alucinada.”
As ferramentas de IA também são cada vez mais utilizadas para “desumanizar as vítimas” após um evento de crise, disse Scheirer.

Uma imagem de IA retratou a mulher confundida com Good como uma fonte de água, com água escorrendo por um buraco em seu pescoço.
Outro a retratava deitada em uma estrada, com o pescoço sob o joelho de um agente mascarado, em uma cena que lembra o assassinato policial de um homem negro chamado George Floyd em Minneapolis em 2020, que gerou protestos por justiça racial em todo o país.
As fabricações de IA, muitas vezes amplificadas por actores partidários, alimentaram realidades alternativas em torno de acontecimentos noticiosos recentes, incluindo a captura pelos EUA do líder venezuelano Nicolás Maduro e o assassinato, no ano passado, do activista conservador Charlie Kirk.
As distorções da IA são “problemáticas” e estão aumentando a “crescente poluição do nosso ecossistema de informação”, disse à AFP Hany Farid, cofundador da GetReal Safety e professor da Universidade da Califórnia, Berkeley.
“Temo que esta seja a nossa nova realidade”, acrescentou.
Publicado – 09 de janeiro de 2026 09h37 IST








