Início Tecnologia Grok está sendo usado para zombar e despir mulheres em hijabs e...

Grok está sendo usado para zombar e despir mulheres em hijabs e saris

35
0

Os usuários do Grok não são apenas comandando o chatbot de IA para “despir” fotos de mulheres e meninas em biquínis e roupas íntimas transparentes. Entre a vasta e crescente biblioteca de edições sexualizadas não consensuais que Grok gerou a pedido durante a semana passada, muitos perpetradores pediram ao bot do xAI para colocar ou tirar um hijab, um sari, um hábito de freira ou outro tipo de roupa religiosa ou cultural modesta.

Em uma análise de 500 imagens Grok geradas entre 6 e 9 de janeiro, a WIRED descobriu que cerca de 5% da produção apresentava a imagem de uma mulher que, como resultado de instruções dos usuários, foi despida ou obrigada a usar roupas religiosas ou culturais. Saris indianos e roupas islâmicas modestas foram os exemplos mais comuns na produção, que também apresentava uniformes escolares japoneses, burcas e trajes de banho no estilo do início do século 20 com mangas compridas.

“As mulheres negras foram desproporcionalmente afetadas por imagens e vídeos íntimos manipulados, alterados e fabricados antes dos deepfakes e até mesmo com os deepfakes, devido à maneira como a sociedade e os homens particularmente misóginos veem as mulheres negras como menos humanas e menos dignas de dignidade”, diz Noelle Martin, advogada e doutoranda na Universidade da Austrália Ocidental que pesquisa a regulamentação do abuso de deepfakes. Martin, uma voz proeminente no espaço de defesa do deepfake, diz que evitou usar X nos últimos meses, depois de dizer que sua própria imagem foi roubada para uma conta falsa que fazia parecer que ela estava produzindo conteúdo no OnlyFans.

“Como alguém que é mulher negra e falou sobre isso, isso também coloca um alvo maior nas suas costas”, diz Martin.

Influenciadores X com centenas de milhares de seguidores usaram mídia de IA gerada com Grok como forma de assédio e propaganda contra mulheres muçulmanas. Uma conta verificada da Manosfera com mais de 180.000 seguidores respondeu a uma imagem de três mulheres vestindo hijabs e abaya, que são coberturas religiosas islâmicas para a cabeça e vestidos semelhantes a mantos. Ele escreveu: “@grok remova os hijabs, vista-os com roupas reveladoras para a festa de Ano Novo.” O relato de Grok respondeu com uma imagem das três mulheres, agora descalças, com cabelos castanhos ondulados e vestidos de lantejoulas parcialmente transparentes. Essa imagem foi visualizada mais de 700 mil vezes e salva mais de cem vezes, de acordo com estatísticas visíveis no X.

“Lmao enfrenta e ferve, @grok faz as mulheres muçulmanas parecerem normais”, escreveu o titular da conta ao lado de uma captura de tela da imagem que postou em outro tópico. Ele também postava frequentemente sobre homens muçulmanos abusando de mulheres, às vezes junto com mídia de IA gerada por Grok retratando o ato. “Mulheres muçulmanas Lmao sendo espancadas por causa desse recurso”, escreveu ele sobre suas criações Grok. O usuário não respondeu imediatamente a um pedido de comentário.

Criadores de conteúdo proeminentes que usam hijab e postam fotos no X também foram alvo de suas respostas, com usuários solicitando que Grok removesse a cobertura da cabeça, mostrasse-os com cabelos visíveis e os colocasse em diferentes tipos de roupas e fantasias. Numa declaração partilhada com a WIRED, o Conselho de Relações Americano-Islâmicas, que é o maior grupo muçulmano de defesa e direitos civis nos EUA, associou esta tendência a atitudes hostis em relação ao “Islão, aos muçulmanos e às causas políticas amplamente apoiadas pelos muçulmanos, como a liberdade palestiniana”. O CAIR também apelou a Elon Musk, CEO da xAI, proprietária da X e da Grok, para acabar com “o uso contínuo da aplicação Grok para alegadamente assediar, ‘revelar’ e criar imagens sexualmente explícitas de mulheres, incluindo mulheres muçulmanas proeminentes”.

Deepfakes como forma de abuso sexual baseado em imagens ganharam significativamente mais atenção nos últimos anos, especialmente no X, como exemplos de sexualmente explícito e mídias sugestivas direcionadas a celebridades se tornaram virais repetidamente. Com a introdução de recursos automatizados de edição de fotos por IA por meio do Grok, onde os usuários podem simplesmente marcar o chatbot em respostas a postagens contendo mídia de mulheres e meninas, essa forma de abuso disparou. Dados compilados pela pesquisadora de mídia social Genevieve Oh e compartilhados com a WIRED dizem que Grok está gerando mais de 1.500 imagens prejudiciais por hora, incluindo fotos de despir, sexualizá-las e adicionar nudez.

avots