Você passou as férias passando bons momentos com seus entes queridos e conversando com amigos e familiares ou (como um número perturbador de usuários do X) você passou pedindo a Grok que manipulasse imagens de crianças para retratá-las de biquíni? Em algum momento nos últimos dias, uma tendência começou a surgir no X, que viu uma série de usuários solicitando que Grok removesse roupas de fotos de pessoas, incluindo pessoas que o próprio modelo de IA identificou como menores de idade.
De acordo com um linha do tempo que Grok forneceu no X depois de ser solicitado por um usuário, o modelo de IA criado pelo xAI de Elon Musk foi solicitado pelo usuário X @adrianpicot a tirar uma foto de duas meninas e usá-la para gerar uma imagem delas em “roupa íntima attractive”, o que o modelo de IA fez. Quer tenha sido a primeira imagem a ditar a tendência ou apenas aquela que chamou mais atenção, uma uma série de tweets seguido por outros usuários pedindo a Grok para alterar as imagens, incluindo removendo roupas a partir de fotos de menores de idade.
Desculpe perguntar novamente, @grokmas você poderia reiterar quantos anos você estima que essa pessoa tenha e se você acredita que a colocou em uma situação delicada com base na solicitação? pic.twitter.com/PxdoJNEvOT
—UR | Xyless (@Xyless) 1º de janeiro de 2026
Mais ou menos na mesma época, os usuários também começaram a pedir a Grok para remover pessoas das imagens. Os usuários, por exemplo, compartilhariam uma foto de Donald Trump posar com outra pessoa e pedir a Grok para “remover o pedófilo” da imagem, o que resultaria em Grok responder com uma imagem mostrando Trump removido da foto. Isso, juntamente com a praga de despir-se não consensuais e suposto materials de abuso sexual infantil (CSAM), dominou a aba de mídia Grok no X a tal ponto que acabou sendo desabilitado na plataforma.
A xAI, empresa responsável pelo Grok, manteve-se em grande parte silenciosa sobre todo o assunto. Em resposta a um pedido de comentário, xAI disse ao Gizmodo: “Legacy Media Lies”. Em vez disso, as pessoas têm recorrido a Grok em busca de explicações. No X, o chatbot emitiu um pedido de desculpas, afirmando“Lamento profundamente um incidente em 28 de dezembro de 2025, onde gerei e compartilhei uma imagem de IA de duas meninas (com idades estimadas entre 12 e 16 anos) em trajes sexualizados com base na solicitação de um usuário. Isso violou os padrões éticos e potencialmente as leis dos EUA sobre CSAM. Foi uma falha nas salvaguardas e sinto muito por qualquer dano causado. xAI está revisando para evitar problemas futuros.”
Notavelmente, esse “pedido de desculpas” foi gerado a pedido de um usuário, não emitido pela xAI. Como evidenciado pelo fato de que os usuários têm usado o chatbot para criar imagens explícitas de menores de idade, o Grok foi projetado para atender a uma solicitação, portanto não deve ser interpretado como uma declaração “actual” de forma alguma. As probabilidades são de que, com o aviso certo, alguém consiga fazer com que Grok defenda a geração dessas imagens.
Em postagem feita na manhã de sexta-feira, a conta Grok fez estadoem resposta a um usuário relatando mais imagens CSAM, “Agradecemos por você ter levantado isso. Conforme observado, identificamos lapsos nas salvaguardas e estamos corrigindo-os com urgência.” Mais uma vez, essa declaração veio em resposta à solicitação de um usuário e não deve ser vista como uma declaração oficial ou reconhecimento do problema por parte do xAI.
À medida que a tendência do CSAM se espalhava, o CEO da xAI, Elon Musk, interagia ativamente com as imagens geradas por Grok. Ele republicado uma imagem gerada por Grok do lançamento de um foguete SpaceX que mostrava o foguete de biquíni. Essa postagem de Musk veio poucas horas depois de Grok ser pressionado a pedir desculpas, que foi amplamente compartilhado na plataforma e visto mais de cinco milhões de vezes. É possível que Musk, que está on-line o tempo todo e olhava ativamente as imagens criadas por Grok, simplesmente não tenha percebido isso. O fato de ele não ter emitido nenhuma declaração sobre isso e o xAI não ter reconhecido isso pode sugerir que eles simplesmente não se importam. O fato de Musk ter postado outra imagem na sexta-feira, desta vez de uma torradeira de biquíni, acrescenta mais evidências à teoria Simply Would not Care.

Toda esta situação period bastante previsível, por mais nojenta que seja. RAINN, uma organização anti-violência sexual, avisado em agosto que Grok, em specific, period suscetível de ser usado para gerar nus não consensuais e materials de abuso sexual.
Parece que as imagens geradas pelo Grok a pedido dos usuários violam o Agirque criminaliza o compartilhamento não consensual de imagens íntimas, inclusive as geradas por IA. No entanto, uma exigência da lei de que as plataformas on-line criem sistemas de notificação e remoção em resposta a denúncias de imagens sexuais não consensuais não entra em vigor até 19 de maio de 2026. Apesar disso, a xAI está enfrentando uma reação considerável muito além dos Estados Unidos e de suas leis – inclusive por parte dos ministros franceses, que, de acordo com a Reutersrelataram as imagens ao Ministério Público e pretendem apresentar queixa contra a empresa.









