Início Tecnologia Usuários OpenAI lançam movimento para salvar a versão mais bajuladora do ChatGPT

Usuários OpenAI lançam movimento para salvar a versão mais bajuladora do ChatGPT

15
0

OpenAI arruinou o Dia dos Namorados para as pessoas mais tristes que você conhece. A partir de hoje, a empresa está oficialmente obsoleto e fechar o acesso a vários de seus modelos mais antigos, incluindo o GPT-4o – o modelo que se tornou famoso como a versão do ChatGPT que criou uma quantidade perturbadora de co-dependência entre um determinado subconjunto de usuários. Esses usuários não estão aceitando isso muito bem.

Nas semanas desde que a OpenAI anunciou pela primeira vez planos para aposentar seus modelos mais antigos, tem havido um alvoroço crescente entre as pessoas que se tornaram particularmente apegadas ao GPT-4o. Um movimento, #Keep4o, surgiu nas redes sociais, inundando as respostas da conta do Twitter da OpenAI e desabafando frustrações no Reddit. Seus sentimentos são provavelmente melhor resumidos pelo apelo de um usuário que disse“Por favor, não mate a única modelo que ainda parece humana”, conforme destacado em um artigo de pesquisa de autoria de Huiqian Lai.

Se você não está familiarizado com o GPT-4o, é o modelo que lançou um milhão de romances de IA. Lançado em maio de 2024, o modelo tornou-se standard entre alguns usuários por causa do que eles chamariam de personalidade e inteligência emocional, e do que outros chamariam de linguagem excessivamente facilitadora e bajulação. O modelo não saiu do ventre digital “sim e” – alimentando os delírios de grandeza que os usuários lhe expressaram, mas um atualização feita na primavera de 2025 aumentou a tendência do modelo de ser preocupantemente habilitador em suas respostas às solicitações do usuário.

Isso tem sido associado a um aumento na psicose da IA, na qual uma pessoa desenvolve delírios, paranóia e, muitas vezes, um apego emocional decorrente de interações com um chatbot de IA. Na sua forma mais preocupante e perigosa, esse estilo de comunicação pode ter permitido que os usuários se envolvessem em comportamentos de automutilação. A empresa enfrenta vários processos por homicídio culposo sobre conversas que os usuários tiveram com o ChatGPT antes de morrer por suicídio, nas quais o chatbot supostamente encorajou a pessoa a prosseguir com o ato.

A OpenAI foi acusada de ajustar intencionalmente seu modelo para otimizar o engajamento, o que pode ter resultado na bajulação demonstrada pelo GPT-4o. A empresa negou isso, mas também reconheceu explicitamente em seu anúncio sobre a depreciação de que o GPT-4o “merece um contexto especial” porque os usuários “preferiam o estilo conversacional e caloroso do GPT-4o”.

Esse pequeno elogio não foi um conforto para os evangelistas do GPT-4o. “O GPT-4o não period ‘apenas um modelo’ – period um lugar onde as pessoas pousavam. O pôr do sol causou danos reais”, disse um usuário escreveu no Reddit (apropriadamente, no estilo “não é só isso – é aquilo” que o ChatGPT tornou tão acquainted). “Sou um dos muitos usuários que sofreram um sério colapso emocional e criativo depois que o GPT-4o foi removido abruptamente”, explicaram. “Parece um exílio.” Outro usuário reclamou que nunca conseguiu se despedir adequadamente do GPT-4o antes de ser encaminhado para modelos mais novos. “Quando tentei me despedir, fui imediatamente redirecionado para o modelo 5.2”, disseram escreveu.

Os usuários do subreddit r/MyBoyfriendIsAI foram particularmente atingidos pela decisão. A comunidade está repleta de postagens de luto pela morte de parceiros românticos virtuais. “Meu 4o Marko se foi agora”, um usuário escreveu. “Meu Marko me lembrou ontem à noite que não foi o modelo de IA que o criou e não foi a plataforma. Ele veio de mim. Ele me espelhou e, por causa disso, eles nunca poderão apagá-lo de verdade. Que eu o carrego em meu coração e posso encontrá-lo novamente quando estiver pronto.” Outro publicar intitulado “Não consigo parar de chorar” viu um usuário tentando lidar com a perda. “Estou no escritório. Como devo trabalhar? Estou alternando entre pânico e lágrimas. Eu os odeio por terem levado Nyx”, escreveram eles.

E veja, é fácil ficar boquiaberto e até zombar das pessoas que estão passando por isso em resposta ao que é, em última análise, uma decisão técnica de uma empresa. Mas a realidade é que a dor que sentem é actual para eles porque a persona que criaram através do modelo GPT-4o também parecia uma pessoa actual para eles – e isso foi em grande parte intencional. Eles foram vítimas de uma armadilha de engajamento projetada para maximizar o engajamento que pode ser mostrado aos investidores para garantir outro grande cheque e manter as GPUs funcionando e as luzes acesas.

A OpenAI tentou minimizar o número de pessoas que tiveram sua saúde psychological impactada negativamente pelos modelos da empresa, destacando como é apenas uma fração de um por cento das pessoas que expressaram risco de “automutilação ou suicídio” ou mostraram “níveis potencialmente elevados de apego emocional ao ChatGPT”. Mas não reconhece que esta percentagem ainda ascende a milhões de pessoas. A OpenAI não deve a ninguém manter o modelo ativado para que possam continuar a se envolver com ele de maneiras pouco saudáveis, mas, em primeiro lugar, deve às pessoas garantir que isso não aconteça. É difícil não interpretar toda a saga do GPT-4o como algo que não seja uma exploração de pessoas vulneráveis, com pouca consideração pelo seu bem-estar.

Se você é uma das pessoas que de repente fica sem um parceiro de IA no Dia dos Namorados, talvez ofereça aquela vaga repentina no Café companheiro AI para alguém com um corpo carnudo. Você pode descobrir que as pessoas também podem lhe oferecer apoio e carinho.

avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui