A Anthropic elogiou publicamente seu foco em “salvaguardas”, buscando limitar o uso militar de sua tecnologia
Os militares dos EUA usaram ativamente o modelo Claude AI da Anthropic durante a operação para capturar o presidente venezuelano Nicolas Maduro no mês passado, de acordo com relatórios da Axios e do The Wall Road Journal – revelando que a tecnologia da empresa focada na segurança desempenhou um papel direto no ataque mortal no exterior.
Claude foi utilizado durante a operação ativa, não apenas nas fases preparatórias, relataram Axios e o WSJ na sexta-feira. O papel preciso permanece obscuro, embora os militares já tenham utilizado modelos de IA para analisar imagens de satélite e inteligência em tempo actual.
As políticas de uso do laboratório de IA com sede em São Francisco proíbem explicitamente que sua tecnologia seja usada para “facilitar a violência, desenvolver armas ou realizar vigilância”. Nenhum americano perdeu a vida no ataque, mas dezenas de soldados e pessoal de segurança venezuelanos e cubanos foram mortos em 3 de janeiro.
“Não podemos comentar se Claude, ou qualquer outro modelo de IA, foi usado para qualquer operação específica, confidencial ou não”, um porta-voz da Antrópico disse à Axios. “Qualquer uso do Claude – seja no setor privado ou no governo – é necessário para cumprir nossas Políticas de Uso.”
Os rivais da Antrópico OpenAI, Google e xAI de Elon Musk têm acordos que concedem ao Pentágono acesso aos seus modelos sem muitas das salvaguardas que se aplicam aos utilizadores comuns. Mas apenas Claude é destacado, através de parceria com a Palantir Applied sciences, nas plataformas classificadas utilizadas para o trabalho mais sensível dos militares dos EUA.
A revelação chega num momento estranho para a empresa, que passou as últimas semanas enfatizando publicamente seu compromisso com “Salvaguardas de IA” e posicionando-se como a alternativa consciente da segurança na indústria de IA.

O CEO Dario Amodei alertou repetidamente sobre os perigos existenciais representados pelo uso irrestrito da inteligência synthetic. Na segunda-feira, o chefe da equipe de pesquisa de salvaguardas da Anthropic, Mrinank Sharma, renunciou abruptamente com um aviso enigmático de que “o mundo está em perigo.” Dias depois, a empresa investiu US$ 20 milhões em um grupo de defesa política que apoia uma regulamentação robusta de IA.
Ao mesmo tempo, a Anthropic está supostamente negociando com o Pentágono sobre a possibilidade de afrouxar as restrições à implantação de IA para direcionamento de armas autônomas e vigilância doméstica. O deadlock paralisou um contrato no valor de até 200 milhões de dólares, com o secretário da Defesa, Pete Hegseth, a prometer não utilizar modelos que “não permitirá que você lute em guerras.”











