Abra o website de um gerador deepfake explícito e você será presenteado com um menu de horrores. Com apenas alguns cliques, oferece a capacidade de converter uma única foto em um videoclipe explícito de oito segundos, inserindo mulheres em situações sexuais gráficas de aparência realista. “Transforme qualquer foto em uma versão nua com nossa avançada tecnologia de IA”, diz o texto no website.
As opções para possíveis abusos são extensas. Entre os 65 “modelos” de vídeo no website há uma série de vídeos de “despir-se” em que as mulheres retratadas tiram as roupas – mas também há cenas de vídeo explícitas chamadas “fuck machine deepthroat” e vários vídeos de “sêmen”. Cada vídeo custa uma pequena taxa para ser gerado; adicionar áudio gerado por IA custa mais.
O website, cujo nome a WIRED não nomeia para limitar a exposição adicional, inclui avisos dizendo que as pessoas só devem fazer add de fotos que tenham consentimento para transformar com IA. Não está claro se há alguma verificação para fazer cumprir isso.
Grok, o chatbot criado pelas empresas de Elon Musk, tem sido usado para criar milhares de imagens não consensuais de “despir” ou “nudificar” biquínis – industrializando e normalizando ainda mais o processo de assédio sexual digital. Mas é apenas o mais visível – e está longe de ser o mais explícito. Durante anos, um ecossistema deepfake, composto por dezenas de websites, bots e aplicativos, vem crescendo, tornando mais fácil do que nunca automatizar o abuso sexual baseado em imagens, incluindo a criação de material de abuso sexual infantil (CSAM). Este ecossistema de “nudificação” e os danos que causa às mulheres e às raparigas são provavelmente mais sofisticados do que muitas pessoas imaginam.
“Não é mais uma tira sintética muito rudimentar”, diz Henry Ajder, especialista em deepfake que acompanha a tecnologia há mais de meia década. “Estamos falando de um grau muito maior de realismo do que é realmente gerado, mas também de uma gama muito mais ampla de funcionalidades.” Combinados, os serviços provavelmente geram milhões de dólares por ano. “É um flagelo social e uma das piores e mais sombrias partes desta revolução da IA e da revolução da mídia sintética que estamos vendo”, diz ele.
Durante o ano passado, a WIRED acompanhou como vários serviços deepfake explícitos introduziram novas funcionalidades e se expandiram rapidamente para oferecer criação de vídeos prejudiciais. Os modelos de imagem para vídeo normalmente agora precisam apenas de uma foto para gerar um clipe curto. Uma análise da WIRED de mais de 50 websites “deepfake”, que provavelmente recebem milhões de visualizações por mês, mostra que quase todos eles agora oferecem geração de vídeos explícitos e de alta qualidade e muitas vezes listam dezenas de cenários sexuais em que as mulheres podem ser retratadas.
Enquanto isso, no Telegram, dezenas de canais e bots sexuais deepfake lançam regularmente novos recursos e atualizações de software program, como diferentes poses e posições sexuais. Por exemplo, em junho do ano passado, um serviço deepfake promoveu um “modo sexual”, anunciando-o junto com a mensagem: “Experimente roupas diferentes, suas poses favoritas, idade e outras configurações”. Outro postou que “mais estilos” de imagens e vídeos seriam lançados em breve e os usuários poderiam “criar exatamente o que imaginam com suas próprias descrições” usando prompts personalizados para sistemas de IA.
“Não é apenas ‘Você quer despir alguém’. É como, ‘Aqui estão todas essas diferentes versões de fantasia disso.’ São as diferentes poses. São as diferentes posições sexuais”, diz o analista independente Santiago Lakatos, que junto com o meio de comunicação Indicador pesquisou como os serviços de “nudificação” costumam usar a infraestrutura de grandes empresas de tecnologia e provavelmente ganharam muito dinheiro no processo. “Existem versões em que você pode fazer alguém [appear] grávida”, diz Lakatos.
Uma análise da WIRED descobriu que mais de 1,4 milhão de contas foram inscritas em 39 bots e canais de criação de deepfake no Telegram. Depois que a WIRED perguntou ao Telegram sobre os serviços, a empresa removeu pelo menos 32 ferramentas deepfake. “A pornografia não consensual – incluindo deepfakes e as ferramentas usadas para criá-los – é estritamente proibida pelas leis do Telegram. termos de serviço”, disse um porta-voz do Telegram, acrescentando que take away conteúdo quando é detectado e removeu 44 milhões de conteúdos que violaram suas políticas no ano passado.












