Quando Antrópico no ano passado tornou-se a primeira grande empresa de IA liberada pelo governo dos EUA para uso confidencial – incluindo aplicações militares – a notícia não causou grande impacto. Mas esta semana um segundo acontecimento atingiu como uma bala de canhão: o Pentágono está reconsiderando seu relacionamento com a empresa, incluindo um contrato de US$ 200 milhões, aparentemente porque a empresa de IA preocupada com a segurança se opõe a participar de certas operações mortais. O chamado Departamento de Guerra poderá até designar a Antrópico como um “risco da cadeia de abastecimento”, uma letra escarlate normalmente reservada a empresas que fazem negócios com países examinados por agências federais, como a China, o que significa que o Pentágono não faria negócios com empresas que utilizem a IA da Antrópico no seu trabalho de defesa. Em uma declaração à WIRED, o porta-voz chefe do Pentágono, Sean Parnell, confirmou que a Anthropic estava na berlinda. “Nossa nação exige que nossos parceiros estejam dispostos a ajudar nossos combatentes a vencer qualquer luta. Em última análise, trata-se de nossas tropas e da segurança do povo americano”, disse ele. Esta é uma mensagem também para outras empresas: OpenAI, xAI e Google, que atualmente tem Departamento de Defesa contratos para trabalhos não classificados, estão a ultrapassar os obstáculos necessários para obterem as suas próprias autorizações elevadas.
Há muito para desempacotar aqui. Por um lado, há uma questão de saber se a Anthropic está a ser punida por se queixar do facto de o seu modelo de IA Claude ter sido usado como parte do ataque para remover o presidente da Venezuela, Nicolás Maduro (isto é, o que está sendo relatado; a empresa nega). Há também o facto de a Anthropic apoiar publicamente a regulamentação da IA – uma posição atípica na indústria e que vai contra as políticas da administração. Mas há uma questão maior e mais perturbadora em jogo. Será que as exigências governamentais para a utilização militar tornarão a própria IA menos segura?
Pesquisadores e executivos acreditam que a IA é a tecnologia mais poderosa já inventada. Praticamente todas as atuais empresas de IA foram fundadas na premissa de que é possível alcançar AGI, ou superinteligência, de uma forma que evite danos generalizados. Elon Musk, o fundador da xAI, já foi o maior defensor do controle da IA – ele foi cofundador da OpenAI porque temia que a tecnologia fosse perigosa demais para ser deixada nas mãos de empresas com fins lucrativos.
A Anthropic conquistou um espaço como o mais preocupado com a segurança de todos. A missão da empresa é ter proteções tão profundamente integradas em seus modelos que os malfeitores não possam explorar o potencial mais obscuro da IA. Isaac Asimov disse isso primeiro e melhor em seu leis da robótica: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal. Mesmo quando a IA se tornar mais inteligente do que qualquer ser humano na Terra – uma eventualidade em que os líderes da IA acreditam fervorosamente – essas barreiras de proteção devem resistir.
Portanto, parece contraditório que os principais laboratórios de IA estejam a lutar para colocar os seus produtos em operações militares e de inteligência de ponta. Como o primeiro grande laboratório com um contrato confidencial, a Anthropic fornece ao governo um “conjunto personalizado de modelos Claude Gov construídos exclusivamente para clientes de segurança nacional dos EUA.” Ainda assim, a Anthropic disse que fez isso sem violar seus próprios padrões de segurança, incluindo a proibição de usar Claude para produzir ou projetar armas. CEO da Anthropic, Dario Amodei disse especificamente ele não quer Claude envolvido em armas autônomas ou vigilância governamental de IA. Mas isso pode não funcionar com a atual administração. CTO do Departamento de Defesa, Emil Michael (ex-diretor de negócios da Uber) disse aos repórteres esta semana que o governo não tolerará que uma empresa de IA limite a forma como os militares utilizam a IA nas suas armas. “Se houver um enxame de drones saindo de uma base militar, quais são suas opções para derrubá-lo? Se o tempo de reação humana não for rápido o suficiente… como você fará?” ele perguntou retoricamente. Chega da primeira lei da robótica.
Há um bom argumento de que a segurança nacional eficaz requer a melhor tecnologia das empresas mais inovadoras. Embora há alguns anos algumas empresas de tecnologia hesitassem em trabalhar com o Pentágono, em 2026 são geralmente aspirantes a empreiteiros militares que agitam bandeiras. Ainda não ouvi nenhum executivo de IA falar sobre seus modelos estarem associados à força letal, mas o CEO da Palantir, Alex Karp não tem vergonha de dizercom aparente orgulho: “Nosso produto é usado ocasionalmente para matar pessoas”.













