Início Tecnologia Os Deepfakes estão por toda parte: como detectar vídeos gerados por IA

Os Deepfakes estão por toda parte: como detectar vídeos gerados por IA

31
0

Vídeos gerados por IA são mais comuns do que nunca. Esses vídeos invadiram as mídias sociais, desde vídeos de animais fofos até conteúdo de outro mundo e estão se tornando mais realistas a cada dia. Embora possa ter sido fácil detectar um vídeo “falso” há um ano, essas ferramentas de IA tornaram-se sofisticadas o suficiente para enganar milhões de pessoas.

Novas ferramentas de IA, incluindo Sora da OpenAI, Veo 3 do Google e Nanobananaapagaram a linha entre a realidade e as fantasias geradas pela IA. Agora, estamos nadando em um mar de vídeos e deepfakes gerados por IA, desde falsos endossos de celebridades até falsas transmissões de desastres.

Se você está lutando para separar o actual da IA, não está sozinho. Aqui estão algumas dicas úteis que devem ajudá-lo a eliminar o ruído para chegar à verdade sobre cada criação inspirada em IA. Para mais, confira o problema por trás As demandas de energia do vídeo de IA e o que precisamos fazer em 2026 para evite mais desperdício de IA.


Não perca nenhum de nossos conteúdos técnicos imparciais e análises baseadas em laboratório. Adicionar CNET como fonte preferencial do Google.


Por que é difícil detectar vídeos Sora AI

Do ponto de vista técnico, os vídeos Sora são impressionantes em comparação com concorrentes como Meio da jornada V1 e Google Veo 3. Possuem alta resolução, áudio sincronizado e criatividade surpreendente. O recurso mais common de Sora, apelidado de “cameo”, permite usar imagens de outras pessoas e inseri-las em praticamente qualquer cena gerada por IA. É uma ferramenta impressionante, resultando em vídeos assustadoramente realistas.

Sora se junta ao Veo 3 do Google, outro gerador de vídeo de IA tecnicamente impressionante. Estas são duas das ferramentas mais populares, mas certamente não as únicas. A mídia generativa tornou-se uma área de foco para muitas grandes empresas de tecnologia em 2025, com os modelos de imagem e vídeo preparados para dar a cada empresa a vantagem que deseja na corrida para desenvolver a IA mais avançada em todas as modalidades. Google e OpenAI lançaram modelos principais de imagem e vídeo este ano em uma aparente tentativa de superar um ao outro.

É por isso que tantos especialistas estão preocupados com o Sora e outros geradores de vídeo de IA. O aplicativo Sora torna mais fácil para qualquer pessoa criar vídeos de aparência realista que apresentem seus usuários. Figuras públicas e celebridades são especialmente vulneráveis ​​a esses deepfakes, e sindicatos como o SAG-AFTRA pressionaram a OpenAI para fortalecer seus guarda-corpos. Outros geradores de vídeo de IA apresentam riscos semelhantes, juntamente com preocupações sobre encher a Web com resíduos de IA sem sentido e podem ser uma ferramenta perigosa para espalhar desinformação.

Identificar conteúdo de IA é um desafio constante para empresas de tecnologia, plataformas de mídia social e todos os demais. Mas não é totalmente desesperador. Aqui estão algumas coisas que você deve observar para determinar se um vídeo foi feito usando Sora.

Procure a marca d’água Sora

Cada vídeo feito no aplicativo Sora iOS inclui uma marca d’água quando você faz o obtain. É o logotipo branco da Sora – um ícone de nuvem – que salta nas bordas do vídeo. É semelhante à forma como os vídeos do TikTok têm marca d’água. Marcar conteúdo com marca d’água é uma das principais maneiras pelas quais as empresas de IA podem nos ajudar visualmente a identificar conteúdo gerado por IA. O modelo Gemini Nano Banana do Google marca automaticamente suas imagens com marcas d’água. As marcas d’água são ótimas porque servem como um sinal claro de que o conteúdo foi feito com a ajuda da IA.

Atlas de IA

Mas as marcas d’água não são perfeitas. Por um lado, se a marca d’água estiver estática (sem movimento), ela poderá ser facilmente cortada. Mesmo para marcas d’água em movimento, como a de Sora, existem aplicativos projetados especificamente para removê-las, portanto, as marcas d’água por si só não são totalmente confiáveis. Quando o CEO da OpenAI, Sam Altman foi questionado sobre issoele disse que a sociedade terá que se adaptar a um mundo onde qualquer pessoa pode criar vídeos falsos de qualquer pessoa. É claro que, antes de Sora, não existia uma maneira common, facilmente acessível e sem necessidade de habilidade para fazer esses vídeos. Mas o seu argumento levanta uma questão válida sobre a necessidade de confiar em outros métodos para verificar a autenticidade.

Verifique os metadados

Eu sei que você provavelmente está pensando que não há como verificar os metadados de um vídeo para determinar se ele é actual. Eu entendo de onde você vem. É uma etapa further e talvez você não saiba por onde começar. Mas é uma ótima maneira de determinar se um vídeo foi feito com Sora e é mais fácil de fazer do que você pensa.

Metadados são uma coleção de informações anexadas automaticamente a um conteúdo quando ele é criado. Dá a você mais informações sobre como uma imagem ou vídeo foi criado. Pode incluir o tipo de câmera usada para tirar uma foto, o native, an information e hora em que o vídeo foi capturado e o nome do arquivo. Cada foto e vídeo possuem metadados, não importa se foram criados por humanos ou por IA. E muito conteúdo criado por IA também terá credenciais de conteúdo que denotam suas origens de IA.

OpenAI faz parte da Coalition for Content material Provenance and Authenticity, o que significa Sora os vídeos incluem Metadados C2PA. Você pode usar o ferramenta de verificação da Content material Authenticity Initiative para verificar os metadados de um vídeo, imagem ou documento. Veja como. (A Iniciativa de Autenticidade de Conteúdo faz parte do C2PA.)

Como verificar os metadados de uma foto, vídeo ou documento

1. Navegue até este URL: https://verify.contentauthenticity.org/
2. Carregue o arquivo que deseja verificar. Em seguida, clique em Abrir.
4. Verifique as informações no painel do lado direito. Se for gerado por IA, deve incluir isso na seção de resumo do conteúdo.

Quando você executa um vídeo Sora por meio desta ferramenta, ele dirá que o vídeo foi “emitido pela OpenAI” e incluirá o fato de ser gerado por IA. Todos os vídeos Sora devem conter essas credenciais que permitem confirmar que foram criados com Sora.

Esta ferramenta, como todos os detectores de IA, não é perfeita. Há muitas maneiras pelas quais os vídeos de IA podem evitar a detecção. Se você tiver vídeos que não sejam do Sora, eles podem não conter os sinais necessários nos metadados para que a ferramenta decide se foram ou não criados por IA. Vídeos de IA feitos com Midjourney, por exemplo, não são sinalizados, como confirmei em meus testes. Mesmo que o vídeo tenha sido criado por Sora, mas depois executado por meio de um aplicativo de terceiros (como um de remoção de marca d’água) e baixado novamente, é menos provável que a ferramenta o sinalize como IA.

Ferramenta de autenticidade de conteúdo

A ferramenta de verificação da Content material Authenticity Initiative sinalizou corretamente que um vídeo que fiz com Sora foi gerado por IA junto com an information e hora em que o criei.

Katelyn Chedraoui/CNET

Procure outros rótulos de IA e inclua o seu próprio

Se você estiver em uma das plataformas de mídia social da Meta, como Instagram ou Fb, poderá obter uma ajudinha para determinar se algo é IA. Meta tem sistemas internos em vigor para ajudar a sinalizar conteúdo de IA e rotulá-lo como tal. Esses sistemas não são perfeitos, mas você pode ver claramente o rótulo das postagens que foram sinalizadas. TikTok e YouTube têm políticas semelhantes para rotular conteúdo de IA.

A única maneira verdadeiramente confiável de saber se algo é gerado por IA é se o criador o divulgar. Muitas plataformas de mídia social agora oferecem configurações que permitem aos usuários rotular suas postagens como geradas por IA. Mesmo um simples crédito ou divulgação em sua legenda pode ajudar muito a ajudar todos a entender como algo foi criado.

Você sabe enquanto rola Sora que nada é actual. No entanto, assim que você sair do aplicativo e compartilhar vídeos gerados por IA, será nossa responsabilidade coletiva divulgar como o vídeo foi criado. À medida que modelos de IA como Sora continuam a confundir a linha entre a realidade e a IA, cabe a todos nós deixar o mais claro possível quando algo é actual ou IA.

Mais importante ainda, permaneça vigilante

Não existe um método infalível para dizer com precisão, a partir de um único olhar, se um vídeo é actual ou IA. A melhor coisa que você pode fazer para evitar ser enganado é não acreditar automaticamente e sem questionar tudo o que vê on-line. Siga seu instinto e se algo parecer irreal, provavelmente é. Nestes tempos sem precedentes e repletos de falhas de IA, sua melhor defesa é inspecionar mais de perto os vídeos que você está assistindo. Não olhe rapidamente e function sem pensar. Verifique se há texto mutilado, objetos desaparecendo e movimentos que desafiam a física. E não se culpe se for enganado ocasionalmente. Até os especialistas erram.

(Divulgação: Ziff Davis, controladora da CNET, entrou com uma ação judicial contra a OpenAI em abril, alegando que ela infringiu os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.)



avots