O modelo de inteligência synthetic da Antrópico, Claude, foi usado na operação militar dos EUA que capturou o ex-presidente venezuelano Nicolás Maduro, informou o Wall Avenue Journal na sexta-feira, citando pessoas familiarizadas com o assunto.A missão para capturar Maduro e sua esposa incluiu bombardear vários locais em Caracas no mês passado. Os Estados Unidos prenderam Maduro em uma operação no início de janeiro e o transportaram para Nova York para enfrentar acusações de tráfico de drogas.De acordo com o The Wall Avenue Journal, a implantação de Claude ocorreu por meio da parceria da Anthropic com a empresa de análise de dados Palantir Applied sciences, cujas plataformas são amplamente utilizadas pelo Departamento de Defesa dos EUA e pelas agências federais de aplicação da lei.A Reuters não pôde verificar o relatório de forma independente. O Departamento de Defesa dos EUA e a Casa Branca não responderam imediatamente aos pedidos de comentários. Palantir também não respondeu imediatamente.A Antrópica disse que não poderia comentar detalhes operacionais.“Não podemos comentar se Claude, ou qualquer outro modelo de IA, foi usado para qualquer operação específica, secreta ou não”, disse um porta-voz da Antrópico. “Qualquer uso do Claude, seja no setor privado ou no governo, é necessário para cumprir nossas Políticas de Uso, que regem como o Claude pode ser implantado. Trabalhamos em estreita colaboração com nossos parceiros para garantir a conformidade.”O Departamento de Defesa não quis comentar, de acordo com o The Wall Avenue Journal.As políticas de uso da Antrópica proíbem Claude de ser usado para facilitar a violência, desenvolver armas ou realizar vigilância. A utilização relatada do modelo num ataque envolvendo operações de bombardeamento destaca questões crescentes sobre a forma como as ferramentas de inteligência synthetic estão a ser utilizadas em contextos militares.O Wall Avenue Journal informou anteriormente que as preocupações da Anthropic sobre como Claude poderia ser usado pelo Pentágono levaram funcionários do governo a considerar o cancelamento de um contrato no valor de até US$ 200 milhões.A Anthropic foi a primeira desenvolvedora de modelos de IA a ser usada em operações confidenciais do Departamento de Defesa, segundo pessoas familiarizadas com o assunto citadas pelo The Wall Avenue Journal. Ainda não está claro se outras ferramentas de IA foram utilizadas na operação na Venezuela para tarefas não confidenciais.O Pentágono tem pressionado as principais empresas de IA, incluindo OpenAI e Anthropic, a disponibilizarem suas ferramentas em redes classificadas sem muitas das restrições padrão aplicadas a usuários comerciais, informou a Reuters com exclusividade no início desta semana.Muitas empresas de IA estão a construir sistemas personalizados para as forças armadas dos EUA, embora a maioria opere apenas em redes não confidenciais utilizadas para funções administrativas. A Anthropic é atualmente o único grande desenvolvedor de IA cujo sistema é acessível em ambientes confidenciais por meio de terceiros, embora os usuários governamentais permaneçam vinculados às suas políticas de uso.A Anthropic, que recentemente levantou US$ 30 bilhões em uma rodada de financiamento avaliada em US$ 380 bilhões, posicionou-se como uma empresa de IA focada em segurança. O Chefe do Executivo, Dario Amodei, apelou publicamente a uma regulamentação e protecções mais fortes para mitigar os riscos dos sistemas avançados de IA.Num evento em janeiro anunciando a colaboração do Pentágono com a xAI, o secretário de Defesa Pete Hegseth disse que a agência não “empregaria modelos de IA que não permitiriam travar guerras”, referindo-se às discussões que funcionários da administração tiveram com a Antrópico, informou o Wall Avenue Journal.A evolução da relação entre os criadores de IA e o Pentágono reflecte uma mudança mais ampla na estratégia de defesa, à medida que as ferramentas de inteligência synthetic são cada vez mais utilizadas para tarefas que vão desde a análise de documentos e resumo de inteligência até ao apoio a sistemas autónomos.A alegada utilização de Claude no ataque a Maduro sublinha o papel crescente dos modelos comerciais de IA nas operações militares dos EUA, mesmo enquanto continuam os debates sobre limites éticos, políticas de utilização e supervisão regulamentar.
O que é o Claude da Antrópico?
Claude da Anthropic é um chatbot avançado de inteligência synthetic e modelo de linguagem grande projetado para geração de texto, raciocínio, codificação e análise de dados, desenvolvido pela empresa de IA Anthropic, sediada nos EUA.Claude faz parte de uma família de grandes modelos de linguagem criados para competir com sistemas como o ChatGPT da OpenAI e o Gemini do Google. Ele pode resumir documentos, responder consultas complexas, gerar relatórios, auxiliar em tarefas de programação e analisar grandes volumes de texto.A Anthropic posiciona Claude como um sistema de IA focado na segurança. A empresa elaborou políticas de uso que proíbem o modelo de ser usado para apoiar a violência, desenvolver armas ou realizar vigilância. Claude está disponível para empresas e clientes governamentais, inclusive em certas redes classificadas por meio de parcerias aprovadas.Fundada em 2021 por ex-executivos da OpenAI, incluindo o CEO Dario Amodei, a Anthropic emergiu como uma das principais startups de IA em todo o mundo, com o apoio de grandes investidores em tecnologia e uma avaliação de centenas de bilhões de dólares.











