Início Tecnologia Os chatbots de IA ainda lutam com a precisão das notícias, segundo...

Os chatbots de IA ainda lutam com a precisão das notícias, segundo estudo

29
0

Uma experiência de um mês levantou novas preocupações sobre a confiabilidade das ferramentas generativas de IA como fontes de notícias, depois que o chatbot Gemini do Google foi descoberto fabricando meios de comunicação inteiros e publicando relatórios falsos. As descobertas foram primeiro relatado por A conversaque conduziu a investigação.

O experimento foi liderado por um professor de jornalismo especializado em ciência da computação, que testou sete sistemas generativos de IA durante um período de quatro semanas. Todos os dias, as ferramentas foram solicitadas a listar e resumir os cinco eventos noticiosos mais importantes em Quebec, classificá-los por importância e fornecer hyperlinks diretos para artigos como fontes. Entre os sistemas testados estavam Gemini do Google, ChatGPT da OpenAI, Claude, Copilot, Grok, DeepSeek e Aria.

O fracasso mais marcante envolveu Gêmeos inventando um meio de comunicação fictício – exemplofictif.ca – e relatando falsamente uma greve de motoristas de ônibus escolares em Quebec, em setembro de 2025. Na realidade, a interrupção foi causada pela retirada dos ônibus Lion Electrical devido a um problema técnico. Este não foi um caso isolado. Em 839 respostas coletadas durante o experimento, os sistemas de IA citaram regularmente fontes imaginárias, forneceram URLs quebrados ou incompletos ou deturparam relatórios reais.

As descobertas são importantes porque um número crescente de pessoas já está usando chatbots de IA para obter notícias

De acordo com o Reuters Institute Digital Information Report, seis por cento dos canadianos confiaram na IA generativa como fonte de notícias em 2024. Quando estas ferramentas alucinam factos, distorcem reportagens ou inventam conclusões, correm o risco de espalhar desinformação – especialmente quando as suas respostas são apresentadas com confiança e sem isenções de responsabilidade claras.

Para os usuários, os riscos são práticos e imediatos. Apenas 37% das respostas incluíram um URL de origem completo e legítimo. Embora os resumos fossem totalmente precisos em menos de metade dos casos, muitos eram apenas parcialmente corretos ou sutilmente enganosos. Em alguns casos, as ferramentas de IA adicionaram “conclusões geradoras” sem suporte, alegando que as histórias tinham “reacender debates” ou “destacar tensões” que nunca foram mencionadas por fontes humanas. Estas adições podem parecer perspicazes, mas podem criar narrativas que simplesmente não existem.

Os erros não se limitaram à fabricação

Algumas ferramentas distorceram histórias reais, como a divulgação incorrecta do tratamento dispensado aos requerentes de asilo ou a identificação incorrecta dos vencedores de grandes eventos desportivos. Outros cometeram erros factuais básicos nos dados das pesquisas ou nas circunstâncias pessoais. Coletivamente, estas questões sugerem que a IA generativa ainda tem dificuldade em distinguir entre resumir notícias e inventar contexto.

Olhando para o futuro, as preocupações levantadas pela The Dialog alinham-se com uma análise mais ampla da indústria. Um relatório recente elaborado por 22 organizações de comunicação social de serviço público concluiu que quase metade das respostas às notícias geradas pela IA continham questões significativas, desde problemas de fornecimento até grandes imprecisões. À medida que as ferramentas de IA se tornam mais integradas nos hábitos de pesquisa e de informação diária, as descobertas sublinham um aviso claro: quando se trata de notícias, a IA generativa deve ser tratada, na melhor das hipóteses, como um ponto de partida – e não como uma fonte de registo fiável.

avots