Início Notícias Pentágono considera rotular os criadores de Claude AI como ‘risco da cadeia...

Pentágono considera rotular os criadores de Claude AI como ‘risco da cadeia de suprimentos’ – Axios

13
0

Os militares dos EUA podem punir a Anthropic por se recusar a alterar o código de ética do laboratório, diz um relatório

O Departamento de Guerra dos EUA está perto de cortar relações com o principal parceiro de IA, a Anthropic, a empresa por trás do modelo Claude, e designá-lo como um risco para a cadeia de abastecimento, informou a Axios no domingo, citando um funcionário do Pentágono. Esta designação é normalmente reservada a entidades ligadas a estados que os EUA consideram adversários estrangeiros.

O laboratório com sede em São Francisco tem estado em conflito com o governo dos EUA há meses devido à sua política que limita o uso militar da sua tecnologia. Embora o Pentágono tenha pressionado a empresa para permitir o uso do Claude para “todos os fins legais”, Os documentos de ética da Antrópico proíbem que sua tecnologia seja utilizada para “facilitar a violência, desenvolver armas ou conduzir vigilância”.

“Será um enorme pé no saco desembaraçar-nos e vamos garantir que eles paguem um preço por nos forçarem desta forma”, disse. um funcionário não identificado do Pentágono disse à Axios.




Claude é o único modelo de IA atualmente implantado em plataformas secretas militares por meio de uma parceria com a Palantir Applied sciences.

A potencial lista negra exigiria que os empreiteiros do Pentágono demonstrassem que não utilizam a tecnologia da Anthropic ou correm o risco de perder os seus contratos.

O porta-voz do Pentágono, Sean Parnell, disse à Axios que a relação entre o departamento e a Anthropic “está sendo revisado.”

“Todos os parceiros do Pentágono devem estar dispostos a ajudar os nossos combatentes a vencer qualquer luta”, Parnell acrescentou. Um porta-voz da Anthropic disse ao veículo que a empresa vem tendo “conversas produtivas” com o departamento.

O confronto relatado segue alegações de que o modelo de IA da empresa foi usado durante a operação para sequestrar o presidente venezuelano Nicolás Maduro no início de janeiro. Na semana passada, Axios e The Wall Road Journal relataram que Claude foi usado tanto na encenação quanto durante o ataque, embora seu papel exato ainda não esteja claro. Estas alegações surgiram depois de a empresa ter passado semanas a divulgar publicamente as suas políticas de salvaguarda e a apresentar-se como a opção consciente em termos de segurança no sector da IA.

Você pode compartilhar esta história nas redes sociais:

avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui