“O mundo está em perigo”, escreveu o líder da equipe de pesquisa de salvaguardas da Anthropic em sua carta de demissão
Um importante pesquisador de segurança em inteligência synthetic, Mrinank Sharma, demitiu-se da Anthropic com um aviso enigmático sobre “crises interligadas”, anunciando seus planos de se tornar “invisível por um período de tempo.”
Sharma, um graduado em Oxford que liderou a equipe de pesquisa de salvaguardas do fabricante do chatbot Claude, postou sua carta de demissão na segunda-feira X, descrevendo um crescente acerto de contas pessoal com “nossa situação”.
“O mundo está em perigo. E não apenas por causa da IA ou das armas biológicas, mas por toda uma série de crises interligadas que se desenrolam neste preciso momento”, afirmou. Sharma escreveu aos colegas.
A saída ocorre no meio de tensões crescentes em torno do laboratório de IA com sede em São Francisco, que corre simultaneamente para desenvolver sistemas cada vez mais poderosos, enquanto os seus próprios executivos alertam que essas mesmas tecnologias podem prejudicar a humanidade.
Voltarei para o Reino Unido e me tornarei invisível por um período de tempo.
– mrinank (@MrinankSharma) 9 de fevereiro de 2026
Também surge na sequência de relatos de uma divergência cada vez maior entre a Anthropic e o Pentágono sobre o desejo dos militares de implantar IA para direcionamento de armas autónomas sem as salvaguardas que a empresa tem procurado impor.
A renúncia de Sharma, que ocorre dias depois de a Anthropic lançar o Opus 4.6 – uma iteração mais poderosa de sua principal ferramenta Claude – sugeriu atritos internos sobre as prioridades de segurança.
“Ao longo do meu tempo aqui, vi repetidamente como é difícil deixar verdadeiramente que os nossos valores governem as nossas ações,” ele escreveu. “Já vi isso dentro de mim mesmo, dentro da organização, onde enfrentamos constantemente pressões para deixar de lado o que é mais importante, e também em toda a sociedade em geral.”
A equipe do pesquisador foi criada há pouco mais de um ano com o mandato de enfrentar ameaças à segurança da IA, incluindo “uso indevido e desalinhamento do modelo”, prevenção do bioterrorismo e “prevenção de catástrofes”.

Sharma observou com orgulho seu trabalho no desenvolvimento de defesas contra armas biológicas assistidas por IA e seu “Projeto closing para entender como os assistentes de IA podem nos tornar menos humanos ou distorcer nossa humanidade.” Agora ele pretende voltar para o Reino Unido para “explorar um diploma de poesia” e “tornar-se invisível por um período de tempo.”
O presidente-executivo da Anthropic, Dario Amodei, alertou repetidamente sobre os perigos representados pela própria tecnologia que sua empresa está comercializando. Num ensaio de quase 20.000 palavras no mês passado, ele alertou que os sistemas de IA de “poder quase inimaginável” são “iminente” e vai “testar quem somos como espécie.”
Amodei alertou sobre “riscos de autonomia” onde a IA poderia “tornar-se desonesto e dominar a humanidade”, e sugeriu que a tecnologia poderia permitir “uma ditadura totalitária world” através de vigilância alimentada por IA e armas autônomas.
Você pode compartilhar esta história nas redes sociais:











