IA desleixo infectou todas as plataformas de mídia social, desde imagens sem alma para vídeos bizarros e texto superficialmente alfabetizado. A grande maioria dos adultos norte-americanos que utilizam as redes sociais (94%) acredita encontrar conteúdo que foi criado ou alterado pela IA, mas apenas 44% dos adultos norte-americanos dizem estar confiantes de que conseguem distinguir fotos e vídeos reais daqueles gerados pela IA, de acordo com uma pesquisa exclusiva da CNET. Isso é um grande problema.
Existem muitas maneiras diferentes de as pessoas lutarem contra o conteúdo de IA. Algumas soluções estão focadas em melhores rótulos para conteúdo criado por IA, já que é mais difícil do que nunca confiar em nossos olhos. Dos 2.443 entrevistados que usam mídias sociais, metade (51%) acredita que precisamos de melhores rótulos de IA on-line. Outros (21%) acreditam que deveria haver uma proibição whole de conteúdo gerado por IA nas redes sociais. Apenas um pequeno grupo (11%) de entrevistados afirma considerar o conteúdo de IA útil, informativo ou divertido.
A IA não vai a lugar nenhum e está remodelando fundamentalmente a Web e nosso relacionamento com ela. Nossa pesquisa mostra que ainda temos um longo caminho a percorrer para enfrentar isso.
Principais descobertas
- A maioria dos adultos norte-americanos que utilizam as redes sociais (94%) acredita encontrar conteúdo de IA nas redes sociais, mas muito menos (44%) conseguem distinguir com segurança entre imagens e vídeos reais e falsos.
- Muitos adultos norte-americanos (72%) disseram que tomam medidas para determinar se uma imagem ou vídeo é actual, mas alguns não fazem nada, especialmente entre os Boomers (36%) e os da Geração X (29%).
- Metade dos adultos dos EUA (51%) acredita que o conteúdo gerado e editado por IA precisa de uma rotulagem melhor.
- Um em cada cinco (21%) acredita que o conteúdo de IA deveria ser proibido nas redes sociais, sem exceções.
Os adultos dos EUA não sentem que conseguem identificar a mídia de IA
Ver não é mais acreditar na period da IA. Ferramentas como OpenAI Sora gerador de vídeo e do Google Nanobanana O modelo de imagem pode criar mídia hiperrealista, com chatbots montando suavemente trechos de texto que parecem ter sido escritos por uma pessoa actual.
Portanto, é compreensível que um quarto (25%) dos adultos norte-americanos digam que não estão confiantes na sua capacidade de distinguir imagens e vídeos reais daqueles gerados por IA. As gerações mais velhas, incluindo os Boomers (40%) e a Geração X (28%), são as menos confiantes. Se as pessoas não tiverem muito conhecimento ou exposição à IA, provavelmente se sentirão inseguras sobre sua capacidade de detectar a IA com precisão.
As pessoas agem para verificar o conteúdo de diferentes maneiras
A capacidade da IA de imitar a vida actual torna ainda mais importante verificar o que vemos on-line. Quase três em cada quatro adultos norte-americanos (72%) afirmaram que tomam alguma forma de ação para determinar se uma imagem ou vídeo é actual quando despertam as suas suspeitas, sendo a Geração Z a que tem maior probabilidade (84%) dos grupos etários de o fazer. O método mais óbvio – e in style – é inspecionar de perto as imagens e vídeos em busca de pistas visuais ou artefatos. Mais da metade dos adultos norte-americanos (60%) fazem isso.
Mas a inovação em IA é uma faca de dois gumes; os modelos melhoraram rapidamente, eliminando os erros anteriores nos quais confiávamos para detectar conteúdo gerado por IA. O travessão nunca foi um sinal confiável de IA, mas dedos extras em imagens e erros de continuidade em vídeos já foram sinais de alerta proeminentes. Os modelos de IA mais recentes geralmente não cometem esses erros comuns. Então todos nós temos que trabalhar um pouco mais para determinar o que é actual e o que é falso.
Você pode procurar discrepâncias e rótulos para identificar o conteúdo de IA.
À medida que os indicadores visuais da IA desaparecem, outras formas de verificação de conteúdo são cada vez mais importantes. Os próximos dois métodos mais comuns são a verificação de rótulos ou divulgações (30%) e a busca do conteúdo em outro lugar on-line (25%), como em websites de notícias ou por meio de pesquisas reversas de imagens. Apenas 5% dos entrevistados relataram usar um deepfake ferramenta de detecção ou web site.
Mas 25% dos adultos norte-americanos não fazem nada para determinar se o conteúdo que veem on-line é actual. Essa falta de ação é maior entre os Boomers (36%) e os da Geração X (29%). Isto é preocupante – já vimos que a IA é uma ferramenta eficaz para abuso e fraude. Compreender as origens de uma postagem ou conteúdo é um primeiro passo importante para navegar na web, onde tudo pode ser falsificado.
Metade dos adultos dos EUA quer melhores rótulos de IA
Muitas pessoas estão trabalhando em soluções para lidar com o ataque violento da IA. A rotulagem é uma importante área de oportunidades. A rotulagem depende dos usuários das redes sociais para divulgar que sua postagem foi feita com a ajuda da IA. Isso também pode ser feito nos bastidores pelas plataformas de mídia social, mas é um tanto difícil, o que leva a resultados aleatórios. É provavelmente por isso que 51% dos adultos nos EUA acreditam que precisamos de uma melhor rotulagem no conteúdo de IA, incluindo deepfakes. O apoio foi mais forte entre a geração Millennials e a geração Z, com 56% e 55%, respectivamente.
Muito poucos (11%) consideraram o conteúdo de IA útil, informativo ou divertido.
Outras soluções visam controlar a enxurrada de conteúdo de IA compartilhado nas redes sociais. Todas as principais plataformas permitem conteúdo gerado por IA, desde que não viole suas diretrizes gerais de conteúdo – nada ilegal ou abusivo, por exemplo. Mas algumas plataformas introduziram ferramentas para limitar a quantidade de conteúdo gerado por IA que você vê em seus feeds; Pinterest lançado seus filtros no ano passado, enquanto o TikTok ainda está testando alguns dos seus próprios. A ideia é dar a cada pessoa a capacidade de permitir ou excluir conteúdo gerado por IA de seus feeds.
Mas 21% dos entrevistados acreditam que o conteúdo de IA deveria ser totalmente proibido nas redes sociais, sem exceções. Esse número é maior entre a Geração Z, com 25%. Quando questionados se acreditavam que o conteúdo de IA deveria ser permitido, mas estritamente regulamentado, 36% disseram que sim. Essas baixas percentagens podem ser explicadas pelo facto de apenas 11% considerarem que o conteúdo de IA proporciona um valor significativo – que é divertido, informativo ou útil – e que 28% dizem que proporciona pouco ou nenhum valor.
Como limitar o conteúdo de IA e detectar possíveis deepfakes
Sua melhor defesa contra ser enganado pela IA é ter olhos de águia e confiar em seu instinto. Se algo é muito estranho, muito brilhante ou bom demais para ser verdade, provavelmente é. Mas existem outras etapas que você pode seguir, como usar uma ferramenta de detecção de deepfake. Existem muitas opções; Eu recomendo começar com o Iniciativa de Autenticidade de Conteúdoferramenta, pois funciona com vários tipos de arquivos diferentes.
Você também pode verificar a conta que compartilhou a postagem em busca de sinais de alerta. Muitas vezes, os resíduos de IA são compartilhados por produtores de resíduos em massa, e você poderá ver isso facilmente em seus feeds. Eles estarão cheios de vídeos estranhos que não parecem ter continuidade ou semelhança entre eles. Você também pode verificar se alguém que você conhece o segue ou se essa conta não segue mais ninguém (isso é um sinal de alerta). Postagens de spam ou hyperlinks fraudulentos também são indicações de que a conta não é legítima.
Se você quiser limitar o conteúdo de IA que vê em seus feeds sociais, confira nossos guias para desligar ou silenciar Meta AI no Instagram e Fb e filtrando Postagens de IA no Pinterest. Se você encontrar algum lixo, poderá marcar a postagem como algo em que não está interessado, o que deve indicar ao algoritmo que você não deseja ver mais coisas semelhantes. Fora das redes sociais, você pode desativar Inteligência da Applea IA em Pixel e Galáxia telefones e Gêmeos em Pesquisa Google, Gmail e Documentos.
Mesmo que você faça tudo isso e ainda seja ocasionalmente enganado pela IA, não se sinta tão mal com isso. Há um limite para o que podemos fazer como indivíduos para combater a maré crescente de resíduos de IA. Todos nós provavelmente erraremos às vezes. Até termos um sistema common para detectar eficazmente a IA, temos de confiar nas ferramentas que temos e na nossa capacidade de educar uns aos outros sobre o que podemos fazer agora.
Metodologia
A CNET contratou a YouGov Plc para conduzir a pesquisa. Todos os números, salvo indicação em contrário, são da YouGov Plc. O tamanho whole da amostra foi de 2.530 adultos, dos quais 2.443 utilizam redes sociais. O trabalho de campo foi realizado de 3 a 5 de fevereiro de 2026. A pesquisa foi realizada on-line. Os números foram ponderados e são representativos de todos os adultos dos EUA (com mais de 18 anos).













