Nenhum dos grandes laboratórios de IA é seu amigo, então não fique muito animado, mas o Pentágono é, de acordo com uma história da Axios de origem anônimaameaçando parar de usar as ferramentas de IA da Antrópica por causa da “insistência da empresa em manter algumas limitações sobre como os militares usam seus modelos”.
A fonte do Pentágono que conversou com a Axios aparentemente disse que de todas as empresas de IA com as quais lida, a Anthropic é a mais “ideológica”.
Tenha em mente que a Anthropic criou Claude e Claude Code, e um padrão perturbador começou onde ela lança um ajuste em seus sistemas de codificação de vibração, e Wall Road vende obedientemente ações em qualquer tipo de negócio que suas ferramentas mais recentes estejam tentando substituir. Esta é uma empresa que quer claramente conquistar o mundo, por isso pode não ser uma boa ideia consolar-se com os muitos histórias sobre como as pessoas que trabalham lá ficam um pouco desconfortáveis com o que significa conquistar o mundo.
No ano passado, Antrópico alardeou sua excitação sobre a conquista do seu contrato de 200 milhões de dólares com o Pentágono, chamando-o de “um novo capítulo no compromisso da Anthropic em apoiar a segurança nacional dos EUA”.
Mas, de qualquer forma, uma coisa interessante sobre a história da Axios é que as duas áreas de preocupação citadas pelo representante da Antrópico que cita, “limites rígidos em torno de armas totalmente autônomas” e “vigilância doméstica em massa”, também foram duas áreas de preocupação mencionadas pelo CEO-fundador Dario Amodei em Podcast de tempos interessantes de Ross Douthatdivulgado há três dias pelo New York Occasions.
Muito disso também é explicado no ensaio de Amodei do mês passado, intitulado “A adolescência da tecnologia”.
Mas na semana passada, no Attention-grabbing Occasions, Amodei sugeriu que qualquer presidente, não apenas Donald Trump, poderia entregar demasiado poder à tecnologia de defesa da IA, e é por isso que ele diz que está “preocupado com o enxame de drones autónomos”, e observa que, “As protecções constitucionais nas nossas estruturas militares dependem da ideia de que existem humanos que iriam – esperamos – desobedecer a ordens ilegais. Com armas totalmente autónomas, não temos necessariamente essas protecções”.
Amodei também esboçou o que um abuso da IA para vigilância doméstica em massa poderia implicar:
“Não é ilegal colocar câmeras em todos os lugares do espaço público e gravar todas as conversas. É um espaço público – você não tem direito à privacidade em um espaço público. Mas hoje, o governo não poderia gravar tudo isso e dar sentido a ele. Com a IA, a capacidade de transcrever o discurso, de examiná-lo, de correlacionar tudo, você poderia dizer: esta pessoa é um membro da oposição.”
Perder Claude seria realmente importante, de acordo com Axios. O oficial da Defesa que vazou para a Axios afirmou que “as outras empresas modelo estão brand atrás” de Claude.
Exatamente qual é o pomo da discórdia permanece um pouco confuso na história do Axios, que (respira fundo) afirma que o Pentágono afirma que a Antthropic procurou informações de Palantir sobre se a sua tecnologia fez parte do ataque dos EUA à Venezuela em 3 de janeiro. A Anthropic nega expressar preocupação de que “relacionar-se com as operações atuais.” No entanto, o responsável do Pentágono diz que a questão foi levantada “de tal forma que implica que eles poderiam desaprovar a utilização do seu software program, porque obviamente houve fogo cinético durante o ataque, pessoas foram baleadas”.
Além disso, como exatamente algo como o Claude Code, que permite a qualquer pessoa criar software program se quiser, pode ser incorporado à perfuração de corpos humanos com balas no mundo actual, permanece igualmente obscuro.











