Início Tecnologia A única coisa que existe entre a humanidade e o Apocalipse da...

A única coisa que existe entre a humanidade e o Apocalipse da IA ​​é… Claude?

13
0

A Anthropic está presa a um paradoxo: entre as principais empresas de IA, é a mais obcecada pela segurança e lidera o grupo na pesquisa de como os modelos podem dar errado. Mas mesmo que os problemas de segurança identificados estejam longe de ser resolvidos, a Anthropic está a avançar tão agressivamente como os seus rivais em direção ao próximo nível, potencialmente mais perigoso, de inteligência synthetic. A sua missão principal é descobrir como resolver essa contradição.

No mês passado, a Anthropic divulgou dois documentos que reconheciam os riscos associados ao caminho que está trilhando e sugeriam um caminho que poderia seguir para escapar do paradoxo. “A adolescência da tecnologia”, uma longa postagem no weblog do CEO Dario Amodei, é nominalmente sobre “confrontar e superar os riscos de uma IA poderosa”, mas gasta mais tempo no primeiro do que no último. Amodei descreve com tato o desafio como “assustador”, mas seu retrato dos riscos da IA ​​– twister muito mais terrível, observa ele, pela alta probabilidade de que a tecnologia seja abusada por autoritários – apresenta um contraste com seu ensaio protoutópico anterior, mais otimista “Máquinas de graça amorosa.”

Essa postagem falava de uma nação de gênios em um information middle; o recente despacho evoca “mares negros do infinito”. Chamando Dante! Ainda assim, depois de mais de 20.000 palavras, na sua maioria sombrias, Amodei finalmente demonstra uma nota de optimismo, dizendo que mesmo nas circunstâncias mais sombrias, a humanidade sempre prevaleceu.

O segundo documento Antrópico publicado em janeiro, “Constituição de Claude”, concentra-se em como esse truque pode ser realizado. O texto é tecnicamente direcionado a um público de apenas um: o próprio Claude (bem como versões futuras do chatbot). É um documento emocionante, revelando a visão da Anthropic sobre como Claude, e talvez seus pares de IA, irão navegar pelos desafios do mundo. Resumindo: a Anthropic está planejando contar com a própria Claude para desembaraçar seu nó górdio corporativo.

O diferencial de mercado da Anthropic há muito tempo é uma tecnologia chamada IA Constitucional. Este é um processo pelo qual os seus modelos aderem a um conjunto de princípios que alinham os seus valores com uma ética humana saudável. A constituição inicial de Claude continha uma série de documentos destinados a incorporar esses valores – coisas como Sparrow (um conjunto de declarações antirracistas e antiviolência criadas pela DeepMind), a Declaração Common dos Direitos Humanos e os termos de serviço da Apple (!). A versão atualizada de 2026 é diferente: é mais como um longo immediate delineando uma estrutura ética que Claude seguirá, descobrindo por conta própria o melhor caminho para a retidão.

Amanda Askell, doutorada em filosofia e redatora principal desta revisão, explica que a abordagem da Anthropic é mais robusta do que simplesmente dizer a Claude para seguir um conjunto de regras estabelecidas. “Se as pessoas seguem as regras sem outra razão além da sua existência, muitas vezes é pior do que se você entender por que a regra existe”, explica Askell. A constituição diz que Claude deve exercer “julgamento independente” ao confrontar situações que exijam equilíbrio nos seus mandatos de ajuda, segurança e honestidade.

Veja como a Constituição diz: “Embora queiramos que Claude seja razoável e rigoroso ao pensar explicitamente sobre ética, também queremos que Claude seja intuitivamente sensível a uma ampla variedade de considerações e capaz de pesar essas considerações de forma rápida e sensata na tomada de decisões ao vivo”. Intuitivamente é uma escolha de palavras reveladora aqui – a suposição parece ser que há mais sob o capô de Claude do que apenas um algoritmo escolhendo a próxima palavra. A “instituição Claude”, como se poderia chamá-la, também expressa esperança de que o chatbot “possa recorrer cada vez mais à sua própria sabedoria e compreensão”.

Sabedoria? Claro, muitas pessoas seguem conselhos de grandes modelos de linguagem, mas é outra coisa afirmar que esses dispositivos algorítmicos realmente possuem a seriedade associada a tal termo. Askell não recua quando eu digo isso. “Acho que Claude é capaz de um certo tipo de sabedoria, com certeza”, ela me diz.

avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui