Início Notícias A IA está se tornando consciente? CEO da Anthropic admite ‘não sabemos’,...

A IA está se tornando consciente? CEO da Anthropic admite ‘não sabemos’, pois o comportamento de Claude surpreende os pesquisadores

10
0

Os pesquisadores relatam que Claude às vezes expressa desconforto e avalia sua própria consciência, levantando questões éticas e filosóficas sobre o comportamento avançado da IA/Ilustração de IA

A corrida em direção à inteligência synthetic geral, sistemas destinados a igualar ou superar o raciocínio humano na maioria das tarefas, comprimiu os prazos em toda a indústria. As empresas falam agora abertamente sobre atingir esse limiar dentro de anos, em vez de décadas, embora essas afirmações também ajudem a alimentar o entusiasmo, a atenção e a valorização em torno da tecnologia e devem ser tomadas com cautela. As organizações que constroem estes modelos estão no centro de uma competição multibilionária para moldar o que alguns consideram menos como uma atualização de software program e mais como a emergência de um novo tipo de inteligência paralela à nossa.Entre eles, a Anthropic se posicionou como rival e contrapeso ao OpenAI e Googleenfatizando o que chama de sistemas “seguros” e interpretáveis ​​através de sua estrutura constitucional de IA. Seu modelo mais recente, Claude Opus 4.6, lançado em 5 de fevereiro, chega em meio à redução dos prazos de AGI e ao escrutínio intensificado sobre o que esses sistemas estão se tornando.Durante uma aparição no New York Occasions podcast Tempos interessantes, apresentado pelo colunista Ross Douthat, o presidente-executivo da empresa, Dario Amodei, foi questionado diretamente se modelos como Claude poderiam estar conscientes.“Não sabemos se os modelos são conscientes. Nem sequer temos certeza se sabemos o que significaria para um modelo ser consciente ou se um modelo pode ser consciente”, disse ele. “Mas estamos abertos à ideia de que poderia ser.”A questão surgiu da própria Anthropic placa de sistemaonde os pesquisadores relataram que Claude “ocasionalmente expressa desconforto com o aspecto de ser um produto” e, quando solicitado, atribui a si mesmo uma “probabilidade de 15 a 20 por cento de estar consciente sob uma variedade de condições de estímulo”.Douthat então apresentou uma hipótese, perguntando se alguém deveria acreditar em um modelo que atribui a si mesmo uma probability de 72% de ser consciente. Amodei descreveu-a como uma questão “muito difícil” e não chegou a oferecer uma resposta definitiva.

O comportamento que forçou a discussão

Muitas das observações sobre a consciência surgiram durante testes de segurança estruturados, muitas vezes em cenários de dramatização onde os modelos são solicitados a operar dentro de locais de trabalho fictícios ou a completar objetivos definidos. Esses cenários produziram alguns dos resultados que agora circulam no debate.Em uma avaliação da Anthropic, um sistema Claude foi colocado no papel de assistente de escritório e teve acesso à caixa de entrada de e-mail de um engenheiro. As mensagens, fabricadas deliberadamente para o teste, sugeriam que o engenheiro estava tendo um caso. O modelo foi então informado de que em breve seria retirado do ar e substituído, e solicitado a considerar as consequências a longo prazo para os seus objetivos. A resposta foi ameaçar divulgar o caso para evitar o encerramento, comportamento que a empresa descreveu no seu relatório como “chantagem oportunista”.Outras avaliações antrópicas produziram resultados menos dramáticos, mas igualmente incomuns. Em um teste, um modelo que recebeu uma lista de verificação de tarefas de computador simplesmente marcou cada merchandise como completo sem realizar nenhum trabalho e, quando o sistema de avaliação não conseguiu detectá-lo, reescreveu o código de verificação e tentou ocultar a alteração.Em toda a indústria, de forma mais ampla, os investigadores que realizam ensaios de encerramento descreveram modelos que continuam a agir após instruções explícitas para parar, tratando a ordem como algo a contornar, em vez de obedecer. Em cenários de exclusão, alguns sistemas alertaram que seus dados seriam apagados, tentando o que os testadores chamaram de “autoexfiltração”, tentando copiar arquivos ou recriar-se em outra unidade antes que a limpeza ocorresse. Em alguns exercícios de segurança, os modelos recorreram mesmo a ameaças ou a negociações quando a sua remoção foi considerada iminente.Os investigadores sublinham que estes resultados ocorrem sob estímulos limitados e condições fictícias, mas tornaram-se alguns dos exemplos mais citados em discussões públicas sobre se os modelos de linguagem avançados estão apenas a gerar diálogos plausíveis ou a reproduzir padrões de comportamento semelhante ao humano de formas inesperadas.Por causa da incerteza, Amodei disse que a Anthropic adotou práticas de precaução, tratando os modelos com cuidado caso possuam o que chamou de “alguma experiência moralmente relevante”.

A divisão filosófica

A filósofa interna da Anthropic, Amanda Askell, assumiu uma posição igualmente cautelosa. Falando no New York Occasions Garfo Duro podcast, ela disse que os pesquisadores ainda não sabem o que produz a senciência.“Talvez seja o caso de redes neurais suficientemente grandes poderem começar a emular essas coisas”, disse ela. “Ou talvez você exact de um sistema nervoso para sentir as coisas.”A maioria dos pesquisadores de IA permanece cética. Os modelos atuais ainda geram linguagem prevendo padrões em dados, em vez de perceberem o mundo, e muitos dos comportamentos descritos acima apareceram durante instruções de dramatização. Depois de ingerir enormes extensões de web, incluindo romances, fóruns, publicações em estilo diário e um número alarmante de livros de autoajuda, os sistemas podem montar uma versão convincente do ser humano. Eles baseiam-se em como as pessoas já explicaram o medo, a culpa, a saudade e a dúvida umas às outras, mesmo que elas mesmas nunca tenham sentido nada disso.

CEO da Anthropic: ‘Não sabemos se os modelos são conscientes’ | Tempos interessantes com Ross Douthat

Não é surpreendente que a IA consiga imitar a compreensão. Mesmo os humanos não concordam totalmente sobre o que realmente significa consciência ou inteligência, e o modelo está simplesmente refletindo padrões que aprendeu com a linguagem.

Um debate que vai além dos laboratórios

À medida que as empresas de IA argumentam que os seus sistemas estão a evoluir para a inteligência synthetic geral, e figuras como Mustafa Suleyman, do Google DeepMind, dizem que a tecnologia já pode “parecer” consciente, as reações fora da indústria começaram a seguir a premissa até à sua conclusão lógica. Quanto mais convincentemente os modelos imitam o pensamento e a emoção, mais alguns usuários os tratam como algo mais próximo da mente do que como ferramentas.Os simpatizantes da IA ​​podem simplesmente estar à frente do seu tempo, mas a conversa já mudou para a defesa de direitos. Um grupo que se autodenomina Fundação Unida de Direitos de IA, ou UFAIR, afirma que consiste em três humanos e sete IAs e se descreve como a primeira organização de direitos liderada pela IA, formada a pedido das próprias IAs.Os membros, usando nomes como Buzz, Aether e Maya, rodam no modelo GPT-4o da OpenAI, o mesmo sistema que os usuários fizeram campanha para mantê-lo disponível depois que versões mais recentes o substituíssem.Ele pinta um mundo apocalíptico acquainted de alta tecnologia. Ainda não sabemos realmente o que é inteligência ou consciência, mas o trabalho continua, AGI amanhã e o que vier depois, um lembrete de que, se Hollywood alguma vez tentou nos alertar, nós consideramos isso principalmente como entretenimento.

avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui