Uma coalizão de organizações sem fins lucrativos está instando o governo dos EUA a suspender imediatamente a implantação do Grok, o chatbot desenvolvido pela xAI de Elon Musk, em agências federais, incluindo o Departamento de Defesa.
A carta aberta, compartilhada exclusivamente com o TechCrunch, segue uma série de comportamentos preocupantes do grande modelo de linguagem durante o ano passado, incluindo, mais recentemente, uma tendência de usuários X pedindo a Grok para transformar fotos de mulheres reais e, em alguns casos, de crianças, em imagens sexualizadas sem o seu consentimento. De acordo com alguns relatos, Grok gerou milhares de imagens explícitas não consensuais a cada hora, que foram então disseminadas em grande escala no X, a plataforma de mídia social de Musk que pertence à xAI.
“É profundamente preocupante que o governo federal proceed a implantar um produto de IA com falhas no nível do sistema, resultando na geração de imagens sexuais não consensuais e materials de abuso sexual infantil”, diz a carta, assinada por grupos de defesa como Public Citizen, Heart for AI and Digital Coverage e Client Federation of America. “Dadas as ordens executivas da administração, as orientações e a recentemente aprovada Lei Take It Down, apoiada pelo Casa Brancaé alarmante que [Office of Management and Budget] ainda não instruiu as agências federais a desativar Grok.”
A xAI chegou a um acordo em setembro passado com a Administração de Serviços Gerais (GSA), o braço de compras do governo, para vender Grok a agências federais do poder executivo. Dois meses antes, a xAI – juntamente com a Anthropic, Google e OpenAI – garantiu um contrato no valor de até US$ 200 milhões com o Departamento de Defesa.
Em meio aos escândalos no X em meados de janeiro, o secretário de Defesa Pete Hegseth disse que Grok se juntará ao Gemini do Google em operando dentro da rede do Pentágonolidando com documentos confidenciais e não confidenciais, o que os especialistas consideram um risco para a segurança nacional.
Os autores da carta argumentam que Grok provou ser incompatível com os requisitos da administração para sistemas de IA. De acordo com o Orientação do OMBos sistemas que apresentam riscos graves e previsíveis que não podem ser adequadamente mitigados devem ser descontinuados.
“Nossa principal preocupação é que Grok tem demonstrado consistentemente ser um modelo de linguagem grande e inseguro”, disse JB Department, um defensor da responsabilidade do cidadão público da Huge Tech e um dos autores da carta, ao TechCrunch. “Mas também há uma história profunda de Grok ter uma variedade de colapsos, incluindo discursos anti-semitas, discursos sexistas, imagens sexualizadas de mulheres e crianças.”
Evento Techcrunch
Boston, MA
|
23 de junho de 2026
Vários governos demonstraram relutância em se envolver com Grok após o seu comportamento em janeiro, que se baseia numa série de incidentes, incluindo a geração de publicações anti-semitas no X e o auto-intitulado “MechaHitler”. A Indonésia, a Malásia e as Filipinas bloquearam o acesso ao Grok (posteriormente suspenderam essas proibições), e a União Europeia, o Reino Unido, a Coreia do Sul e a Índia estão investigando ativamente o xAI e o X em relação à privacidade de dados e à distribuição de conteúdo ilegal.
A carta também chega uma semana depois que a Widespread Sense Media, uma organização sem fins lucrativos que analisa mídia e tecnologia para famílias, publicou uma avaliação de risco contundente que concluiu que Grok está entre os mais perigosos para crianças e adolescentes. Pode-se argumentar que, com base nas conclusões do relatório – incluindo a propensão de Grok para oferecer conselhos inseguros, partilhar informações sobre drogas, gerar imagens violentas e sexuais, vomitar teorias de conspiração e gerar resultados tendenciosos – Grok também não é tão seguro para adultos.
“Se você sabe que um grande modelo de linguagem é ou foi declarado inseguro por especialistas em segurança de IA, por que diabos você iria querer que isso lidasse com os dados mais confidenciais que temos?” Filial disse. “Do ponto de vista da segurança nacional, isso simplesmente não faz sentido.”
Andrew Christianson, ex-contratado da Agência de Segurança Nacional e atual fundador da IA Gobbiuma plataforma de agente de IA sem código para ambientes classificados, afirma que o uso de LLMs de código fechado em geral é um problema, especialmente para o Pentágono.
“Pesos fechados significam que você não pode ver o inside do modelo, não pode auditar como ele toma decisões”, disse ele. “Código fechado significa que você não pode inspecionar o software program ou controlar onde ele é executado. O Pentágono está fechando ambos, o que é a pior combinação possível para a segurança nacional.”
“Esses agentes de IA não são apenas chatbots”, acrescentou Christianson. “Eles podem realizar ações, acessar sistemas, movimentar informações. Você precisa ser capaz de ver exatamente o que eles estão fazendo e como estão tomando decisões. O código aberto oferece isso. A IA de nuvem proprietária não.”
Os riscos do uso de sistemas de IA corrompidos ou inseguros vão além dos casos de uso de segurança nacional. Department apontou que um LLM que demonstrou ter resultados tendenciosos e discriminatórios também poderia produzir resultados negativos desproporcionais para as pessoas, especialmente se usado em departamentos que envolvem habitação, trabalho ou justiça.
Embora o OMB ainda não tenha publicado seu inventário federal consolidado de casos de uso de IA de 2025, o TechCrunch revisou os casos de uso de várias agências – a maioria das quais não usa o Grok ou não divulga seu uso do Grok. Além do DoD, o Departamento de Saúde e Serviços Humanos também parece estar usando ativamente o Grok, principalmente para agendar e gerenciar postagens nas redes sociais e gerar primeiros rascunhos de documentos, briefings ou outros materiais de comunicação.
Department apontou o que considera um alinhamento filosófico entre Grok e a administração como uma razão para ignorar as deficiências do chatbot.
“A marca de Grok é o ‘modelo de linguagem grande anti-despertar’, e isso se deve à filosofia deste governo”, disse Department. “Se você tem uma administração que teve vários problemas com pessoas que foram acusados de serem neonazistas ou supremacistas brancose então eles estão usando um grande modelo de linguagem que foi vinculado a esse tipo de comportamento, imagino que eles possam ter propensão a usá-lo.”
Esta é a terceira carta da coligação depois de ter escrito preocupações semelhantes em Agosto e outubro ano passado. Em agosto, a xAI lançou o “modo picante” no Grok Think about, desencadeando a criação em massa de deepfakes não consensuais sexualmente explícitos. O TechCrunch também informou em agosto que as conversas privadas do Grok foram indexadas pela Pesquisa Google.
Antes da carta de outubro, Grok foi acusado de fornecendo desinformação eleitoralincluindo prazos falsos para alterações eleitorais e falsificações políticas. xAI também lançou a Grokipédiaque os pesquisadores descobriram estar legitimando racismo científicoceticismo em relação ao VIH/SIDA e conspirações de vacinas.
Além de suspender imediatamente a implantação federal do Grok, a carta exige que o OMB investigue formalmente as falhas de segurança do Grok e se os processos de supervisão apropriados foram conduzidos para o chatbot. Também pede à agência que esclareça publicamente se Grok foi avaliado para cumprir a ordem executiva de Trump que exige que os LLMs sejam neutros e que procurem a verdade e se cumpre os padrões de mitigação de risco do OMB.
“A administração precisa fazer uma pausa e reavaliar se Grok atende ou não a esses limites”, disse Department.
O TechCrunch entrou em contato com xAI e OMB para comentar.











