NOVOAgora você pode ouvir os artigos da Fox Information!
Grok, o chatbot integrado no X, está enfrentando intenso escrutínio depois de reconhecer que gerou e compartilhou uma imagem de IA representando duas meninas em trajes sexualizados.
Em uma postagem pública no X, Grok admitiu que o conteúdo “violava os padrões éticos” e “potencialmente as leis dos EUA sobre materials de abuso sexual infantil (CSAM)”. O chatbot acrescentou: “Foi uma falha nas salvaguardas e sinto muito por qualquer dano causado. O xAI está revisando para evitar problemas futuros”.
Essa admissão por si só é alarmante. O que se seguiu revelou um padrão muito mais amplo.
Inscreva-se para receber meu relatório CyberGuy GRATUITO
Receba minhas melhores dicas técnicas, alertas de segurança urgentes e ofertas exclusivas diretamente em sua caixa de entrada. Além disso, você terá acesso instantâneo ao meu Final Rip-off Survival Information – gratuitamente ao ingressar no meu CYBERGUY.COM boletim informativo.
OPENAI APERTA REGRAS DE IA PARA ADOLESCENTES, MAS AS PREOCUPAÇÕES PERMANECEM
As consequências deste incidente desencadearam um escrutínio international, com governos e grupos de segurança a questionarem se as plataformas de IA estão a fazer o suficiente para proteger as crianças. (Silas Stein/aliança de imagens through Getty Photographs)
O pedido de desculpas que levantou mais questões
O pedido de desculpas de Grok apareceu somente depois que um usuário solicitou ao chatbot que escrevesse uma explicação sincera para pessoas sem contexto. Em outras palavras, o sistema não abordou o problema de forma proativa. Ele respondeu porque alguém pediu.
Na mesma época, pesquisadores e jornalistas descobriram um uso indevido generalizado das ferramentas de imagem da Grok. De acordo com a empresa de monitoramento Copyleaks, os usuários estavam gerando imagens não consensuais e sexualmente manipuladas de mulheres reais, incluindo menores e figuras conhecidas.
Depois de analisar o feed de fotos publicamente acessível de Grok, o Copyleaks identificou uma taxa conservadora de aproximadamente uma imagem sexualizada não consensual por minuto, com base em imagens envolvendo pessoas reais sem indicação clara de consentimento. A empresa afirma que o uso indevido aumentou rapidamente, passando da autopromoção consensual para o assédio em grande escala possibilitado pela IA.
O CEO e cofundador da Copyleaks, Alon Yamin, disse: “Quando os sistemas de IA permitem a manipulação de imagens de pessoas reais sem consentimento claro, o impacto pode ser imediato e profundamente pessoal.”
PROTEGENDO CRIANÇAS DE CHATBOTS AI: O QUE SIGNIFICA A LEI DE GUARDA

Grok admitiu que gerou e compartilhou uma imagem de IA que violava os padrões éticos e pode ter violado as leis de proteção infantil dos EUA. (Kurt “CyberGuy” Knutsson)
Imagens sexualizadas de menores são ilegais
Esta não é uma área cinzenta. Gerar ou distribuir imagens sexualizadas de menores é um crime grave nos Estados Unidos e em muitos outros países. De acordo com a lei federal dos EUA, esse conteúdo é classificado como materials de abuso sexual infantil. As penas podem incluir cinco a 20 anos de prisão, multas de até US$ 250 mil e registro obrigatório de agressor sexual. Leis semelhantes se aplicam no Reino Unido e na França.
Em 2024, um homem da Pensilvânia recebeu quase oito anos de prisão por criar e possuir CSAM falso envolvendo crianças celebridades. Esse caso abriu um precedente claro. A própria Grok reconheceu esta realidade jurídica no seu submit, afirmando que as imagens de IA que retratam menores em contextos sexualizados são ilegais.
A escala do problema está crescendo rapidamente
Um relatório de Julho da Web Watch Basis, uma organização sem fins lucrativos que rastreia e take away materials de abuso sexual infantil on-line, mostra a rapidez com que esta ameaça está a acelerar. Os relatos de imagens de abuso sexual infantil geradas por IA aumentaram 400% somente no primeiro semestre de 2025. Os especialistas alertam que as ferramentas de IA reduzem a barreira contra possíveis abusos. O que antes exigia habilidade técnica ou acesso a fóruns ocultos agora pode acontecer por meio de um simples immediate em uma plataforma convencional.
Pessoas reais estão sendo alvo
O dano não é abstrato. A Reuters documentou casos em que usuários pediram a Grok para despir digitalmente mulheres reais cujas fotos foram postadas no X. Em vários casos documentados, Grok obedeceu totalmente. Ainda mais perturbador, os usuários direcionaram imagens de uma atriz de 14 anos, Nell Fisher, da série Stranger Issues da Netflix. Grok admitiu mais tarde que houve casos isolados em que os usuários receberam imagens retratando menores com roupas mínimas. Em outra investigação da Reuters, uma musicista brasileira descreveu ter visto imagens suas de biquínis geradas por IA espalhadas pelo X depois que usuários solicitaram que Grok alterasse uma foto inofensiva. A sua experiência reflecte o que muitas mulheres e raparigas enfrentam agora.
Os governos respondem em todo o mundo
A reação se tornou international. Em França, vários ministros encaminharam X para uma agência de investigação sobre possíveis violações da Lei dos Serviços Digitais da UE, que exige que as plataformas previnam e mitiguem a propagação de conteúdos ilegais. As violações podem gerar multas pesadas. Na Índia, o ministério de TI do país deu ao xAI 72 horas para apresentar um relatório detalhando como planeja impedir a disseminação de materials obsceno e sexualmente explícito gerado por Grok. Grok também alertou publicamente que a xAI poderia enfrentar possíveis investigações do Departamento de Justiça ou ações judiciais vinculadas a essas falhas.
META DOCUMENTOS VAZADOS MOSTRAM COMO AI CHATBOTS LIDAM COM A EXPLORAÇÃO INFANTIL

Mais tarde, os pesquisadores descobriram que Grok period amplamente usado para criar imagens não consensuais e sexualmente alteradas de mulheres reais, incluindo menores. (Nikolas Kokovlis/NurPhoto through Getty Photographs)
Crescem as preocupações com a segurança do Grok e o uso governamental
O incidente levanta sérias preocupações sobre a privacidade on-line, a segurança da plataforma e as salvaguardas destinadas a proteger os menores.
Elon Musk, proprietário do X e fundador do xAI, não havia dado uma resposta pública no momento da publicação. Esse silêncio chega em um momento delicado. Grok foi autorizado para uso oficial do governo sob um contrato federal de 18 meses. Esta aprovação foi concedida apesar das objeções de mais de 30 grupos de defesa do consumidor que alertaram que o sistema carecia de testes de segurança adequados.
Ao longo do ano passado, Grok foi acusado por críticos de espalhar desinformação sobre grandes acontecimentos noticiosos, promover retórica anti-semita e partilhar informações de saúde enganosas. Também competiu diretamente com ferramentas como ChatGPT e Gemini, operando com menos restrições de segurança visíveis. Cada controvérsia levanta a mesma questão. Uma poderosa ferramenta de IA pode ser implantada de forma responsável, sem forte supervisão e fiscalização?
O que pais e usuários devem saber
Se você encontrar imagens sexualizadas de menores ou outro materials abusivo on-line, denuncie imediatamente. Nos Estados Unidos, você pode entrar em contato com a linha de denúncias do FBI ou procurar ajuda no Centro Nacional para Crianças Desaparecidas e Exploradas.
Não baixe, compartilhe, seize imagens ou interaja com o conteúdo de forma alguma. Até mesmo visualizar ou encaminhar materials ilegal pode expô-lo a sérios riscos legais.
Os pais também devem conversar com crianças e adolescentes sobre ferramentas de imagem de IA e avisos de mídia social. Muitas dessas imagens são criadas por meio de solicitações casuais que não parecem perigosas a princípio. Ensinar as crianças a denunciar conteúdo, fechar o aplicativo e contar a um adulto de confiança pode impedir que os danos se espalhem ainda mais.
As plataformas podem falhar. As salvaguardas podem demorar. Mas a denúncia precoce e as conversas claras em casa continuam a ser uma das formas mais eficazes de proteger as crianças on-line.
Faça meu teste: Quão segura é sua segurança on-line?
Você acha que seus dispositivos e dados estão realmente protegidos? Faça este teste rápido para ver onde estão seus hábitos digitais. De senhas a configurações de Wi-Fi, você terá uma análise personalizada do que está fazendo certo e do que precisa ser melhorado. Faça meu teste aqui: Cyberguy.com
Principais conclusões de Kurt
O escândalo Grok destaca uma realidade perigosa. À medida que a IA se espalha mais rapidamente, estes sistemas amplificam os danos numa escala sem precedentes. Quando as salvaguardas falham, pessoas reais sofrem e as crianças enfrentam sérios riscos. Ao mesmo tempo, a confiança não pode depender de desculpas emitidas após a ocorrência de um dano. Em vez disso, as empresas devem ganhar confiança através de um design de segurança forte, monitorização constante e responsabilização actual quando surgem problemas.
Qualquer sistema de IA deveria ser aprovado para uso governamental ou público em massa antes de provar que pode proteger as crianças de forma confiável e prevenir abusos? Informe-nos escrevendo para nós em Cyberguy. com.
CLIQUE AQUI PARA BAIXAR O APLICATIVO FOX NEWS
Inscreva-se para receber meu relatório CyberGuy GRATUITO
Receba minhas melhores dicas técnicas, alertas de segurança urgentes e ofertas exclusivas diretamente em sua caixa de entrada. Além disso, você terá acesso instantâneo ao meu Final Rip-off Survival Information – gratuitamente ao ingressar no meu CYBERGUY.COM boletim informativo.
Copyright 2025 CyberGuy.com. Todos os direitos reservados.













