A Anthropic está em desacordo com o Departamento de Defesa sobre como seus modelos de inteligência synthetic deveriam ser usados, e seu trabalho com a agência está “sob revisão”, disse um porta-voz do Pentágono à CNBC.
A startup de cinco anos foi premiada com um US$ 200 milhões contrato com o DoD no ano passado. Em fevereiro, a Anthropic é a única empresa de IA que implantou seus modelos nas redes secretas da agência e forneceu modelos customizados para clientes de segurança nacional.
Mas as negociações sobre os termos de uso “futuros” encontraram um obstáculo, disse Emil Michael, subsecretário de Guerra para Pesquisa e Engenharia, em uma cúpula de defesa na Flórida, na terça-feira.
A Anthropic quer garantia de que seus modelos não serão usados para armas autônomas ou para “espionar os americanos em massa”, de acordo com um relatório de Axios.
O DoD, por outro lado, quer usar os modelos da Anthropic “para todos os casos de uso legais” sem limitação.
“Se alguma empresa não quiser acomodar isso, isso será um problema para nós”, disse Michael. “Isso poderia criar uma dinâmica onde começaríamos a usá-los e nos acostumaríamos com o funcionamento desses modelos, e quando precisarmos usá-los em uma situação urgente, seríamos impedidos de usá-los.”
É o mais recente problema no relacionamento cada vez mais tenso da Anthropic com a administração Trump, que criticou publicamente a empresa nos últimos meses.
David Sacks, o capitalista de risco que atua como IA e criptoczar do governo, acusou a Anthropic de apoiar a “IA desperta” por causa de sua posição em relação à regulamentação.
Um porta-voz da Anthropic disse que a empresa está tendo “conversas produtivas, de boa fé” com o DoD sobre como “resolver essas questões complexas”.
“A Anthropic está comprometida em usar IA de fronteira em apoio à segurança nacional dos EUA”, disse o porta-voz.
Os rivais da startup OpenAI, Google e xAI também receberam contratos de até US$ 200 milhões do DoD no ano passado.
Essas empresas concordaram em deixar o DoD utilizar os seus modelos para todos os fins legais dentro dos sistemas não confidenciais das forças armadas, e uma empresa concordou em “todos os sistemas”, de acordo com um alto funcionário do DoD que pediu para não ser identificado porque as negociações são confidenciais.
Se a Anthropic não concordar com os termos de uso do DoD, a agência poderá rotular a empresa como um “risco da cadeia de suprimentos”, o que exigiria que seus fornecedores e contratados certificassem que não usam os modelos da Anthropic, disse a pessoa.
A designação é normalmente reservada a adversários estrangeiros, portanto seria um golpe complexo para a Antrópica.
A empresa foi fundada por um grupo de ex-pesquisadores e executivos da OpenAI em 2021 e é mais conhecida por desenvolver uma família de modelos de IA chamada Claude
A Anthropic anunciou no início deste mês que fechou uma rodada de financiamento de US$ 30 bilhões com uma avaliação de US$ 380 bilhões, mais que o dobro do que valia em seu último aumento em setembro.
ASSISTIR: Anthropic estreia modelo Sonnet 4.6











