Pesquisadores que estudam chatbots de IA descobriram que o ChatGPT pode apresentar comportamento semelhante ao da ansiedade quando é exposto a solicitações violentas ou traumáticas do usuário. A descoberta não significa que o chatbot experimente emoções da mesma forma que os humanos.
No entanto, revela que as respostas do sistema tornam-se mais instáveis e tendenciosas quando processa conteúdos perturbadores. Quando os pesquisadores forneceram instruções ao ChatGPT descrevendo conteúdos perturbadores, como relatos detalhados de acidentes e desastres naturais, as respostas do modelo mostraram maior incerteza e inconsistência.
Essas mudanças foram medidas usando estruturas de avaliação psicológica adaptadas para IA, onde o resultado do chatbot refletia padrões associados à ansiedade em humanos (through Fortuna).
Isto é importante porque a IA é cada vez mais utilizada em contextos sensíveis, incluindo educação, discussões sobre saúde psychological e informações relacionadas com crises. Se avisos violentos ou com carga emocional tornarem um chatbot menos confiável, isso poderá afetar a qualidade e a segurança de suas respostas no uso no mundo actual.
Análises recentes também mostram que chatbots de IA como o ChatGPT podem copiar traços de personalidade humana em suas respostas, levantando questões sobre como eles interpretam e refletem conteúdo com carga emocional.
Como os avisos de atenção plena ajudam a estabilizar o ChatGPT

Para descobrir se tal comportamento poderia ser reduzido, os pesquisadores tentaram algo inesperado. Depois de expor o ChatGPT a estímulos traumáticos, eles seguiram instruções no estilo mindfulness, como técnicas de respiração e meditações guiadas.
Estas sugestões incentivaram o modelo a abrandar, a reformular a situação e a responder de uma forma mais neutra e equilibrada. O resultado foi uma redução notável nos padrões semelhantes aos da ansiedade observados anteriormente.
Essa técnica depende do que é conhecido como injeção de immediate, onde prompts cuidadosamente projetados influenciam o comportamento de um chatbot. Nesse caso, os avisos de atenção plena ajudaram a estabilizar os resultados do modelo após informações estressantes.

Embora eficazes, os pesquisadores observam que as injeções imediatas não são uma solução perfeita. Eles podem ser mal utilizados e não alteram a forma como o modelo é treinado em um nível mais profundo.
Também é importante deixar claro os limites desta pesquisa. ChatGPT não sente medo ou estresse. O rótulo “ansiedade” é uma forma de descrever mudanças mensuráveis nos seus padrões de linguagem, não uma experiência emocional.
Ainda assim, compreender essas mudanças dá aos desenvolvedores melhores ferramentas para projetar sistemas de IA mais seguros e previsíveis. Estudos anteriores já sugeriram que solicitações traumáticas podem deixar o ChatGPT ansiosomas esta pesquisa mostra que o design consciente e imediato pode ajudar a reduzi-lo.
À medida que os sistemas de IA continuam a interagir com pessoas em situações de grande carga emocional, as últimas descobertas podem desempenhar um papel importante na definição de como os futuros chatbots serão guiados e controlados.











