Início Tecnologia Anthropic atualiza a ‘constituição’ de Claude, caso o chatbot tenha consciência

Anthropic atualiza a ‘constituição’ de Claude, caso o chatbot tenha consciência

3
0

Claude da Antrópico está recebendo uma nova constituição. Na quarta-feira, a empresa anunciado que o documento, que fornece uma “descrição detalhada da visão da Anthropic para os valores e comportamento de Claude”, está sendo reescrito que introduzirá princípios amplos que a empresa espera que seu chatbot siga, em vez do conjunto mais rigoroso de regras em que se baseou em iterações anteriores do documento.

A lógica da Antrópico para a mudança parece bastante sólida. Embora regras específicas criem um comportamento mais confiável e previsível dos chatbots, elas também são limitantes. “Achamos que, para serem bons atores no mundo, os modelos de IA como Claude precisam entender por que queremos que eles se comportem de determinadas maneiras, e precisamos explicar isso a eles, em vez de apenas especificar o que queremos que façam”, explicou a empresa. “Se quisermos que os modelos exerçam um bom julgamento numa ampla gama de situações novas, eles precisam ser capazes de generalizar – para aplicar princípios amplos em vez de seguir mecanicamente regras específicas.”

É justo – embora a visão geral da nova constituição pareça deixar muito a desejar em termos de especificidades. Os quatro princípios orientadores da Anthropic para Claude incluem garantir que seus modelos subjacentes sejam “amplamente seguros”, “amplamente éticos”, “compatíveis com as diretrizes da Anthropic” e “genuinamente úteis”. Esses são… bem, princípios amplos. A empresa afirma que grande parte da Constituição é dedicada a explicar estes princípios e oferece mais alguns detalhes (ou seja, ser ético significa “ser honesto, agir de acordo com bons valores e evitar ações inadequadas, perigosas ou prejudiciais”), mas mesmo isso parece bastante genérico.

A empresa também disse que dedicou uma seção da constituição à natureza de Claude por causa de “nossa incerteza sobre se Claude poderia ter algum tipo de consciência ou standing ethical (agora ou no futuro)”. A empresa aparentemente espera que, ao definir isso em seus documentos fundamentais, possa proteger “a segurança psicológica, o senso de identidade e o bem-estar de Claude”.

A mudança na constituição de Claude e a aparente aceitação da ideia de que um dia poderá ter uma consciência independente ocorre apenas um dia depois do CEO e fundador da Anthropic, Dario Amodeo falou em um painel do Fórum Econômico Mundial intitulado “The Day After AGI” e sugeriu que a IA alcançará níveis de competências “prémio Nobel” em muitas áreas até 2027.

Esse abrir da cortina sobre como Claude funciona (ou deveria funcionar) está nos próprios termos da Antrópico. A última vez que vimos o que estava acontecendo lá atrás, foi por meio de um usuário que conseguiu fazer com que o chatbot produzisse o que chamou de “documento da alma”. Esse documento, que foi revelado em dezembro, não period um documento oficial de treinamento, disse a Anthropic ao Gizmodo, mas period uma iteração inicial da constituição que a empresa chamava internamente de sua “alma”. A Antrópico também disse que seu plano é sempre publicar a constituição completa quando estiver pronta.

Se Claude está pronto para operar sem os pára-choques é outra questão, mas parece que vamos descobrir a resposta de uma forma ou de outra.

avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui