A Rússia e outros estados estão a reforçar a regulamentação dos deepfakes à medida que estes se tornam uma questão de segurança nacional, em vez de uma curiosidade tecnológica.
Por Anna SytnikProfessor Associado da Universidade Estadual de São Petersburgo e CEO da organização sem fins lucrativos Colaboratory
Durante a maior parte da história moderna, “grande política” operado em condições de escassez de informação e excesso de interpretação. A period digital inverteu essa equação. Hoje enfrentamos uma escassez de autenticidade e um excesso de conteúdo. Deepfakes – vídeos e imagens fabricados, muitas vezes com áudio, gerados por inteligência synthetic – são baratos e capazes de minar a base mais básica da interação social: a confiança no discurso público e nas evidências visuais.
A web agora está saturada com esse tipo de materials. Pesquisas sugerem que cerca de 60% das pessoas encontraram um vídeo deepfake no ano passado. Algumas dessas criações são inofensivas ou absurdas, como imagens exageradas de IA de montes de neve de nove andares em Kamchatka que circularam até nos Estados Unidos. Mas a tecnologia alimenta cada vez mais tensões políticas graves.
A crise indo-paquistanesa de Maio de 2025 ilustrou este perigo. Um único vídeo fabricado que pretende mostrar a perda de dois caças espalhado on-line em poucas horas, inflamando o sentimento público, alimentando a retórica militar e acelerando a escalada mais rapidamente do que as negações oficiais conseguiam contê-la. Os deepfakes passaram, assim, do domínio do entretenimento para o da segurança nacional.
Não é por acaso que no closing de 2025 e no início de 2026 assistimos a uma onda de novas regulamentações. Os Estados estão a começar a tratar as falsificações de IA não como uma novidade, mas como um issue de desestabilização. A tendência international é no sentido do controlo, da aplicação e das medidas coercivas.
Em países frequentemente descritos como parte do “maioria international”, a ênfase está na rápida aplicação da lei. Em 10 de janeiro, a Indonésia bloqueou temporariamente o acesso ao Grok depois que a plataforma foi usada para criar deepfakes sexualizados e não autorizados. A resposta de Jacarta demonstrou disponibilidade para cortar imediatamente os canais de distribuição em casos de abuso em massa, em vez de esperar por longos processos de definição de padrões.
O Vietname oferece um exemplo ainda mais claro de abordagem do direito penal. No closing de 2025, as autoridades emitiram mandados de detenção e conduziram um julgamento à revelia contra dois cidadãos acusados de distribuir sistematicamente “anti-estado” materiais, incluindo imagens e vídeos gerados por IA. Hanói não tratou a natureza transfronteiriça das publicações como imunidade. Em vez disso, enquadrou os deepfakes como uma questão de soberania digital. Nesta perspetiva, a esfera digital já não é um espaço onde podem ser fabricadas provas e onde as instituições podem ser desacreditadas a partir do estrangeiro sem consequências. O Estado sinalizou a sua vontade de alargar o direito penal ao ambiente digital international.
O uso de deepfake também está mudando de caráter. Cada vez mais, a manipulação da IA é usada para ataques rápidos e localizados à confiança, em vez de operações especiais complexas. Em 19 de janeiro, a polícia indiana abriu uma investigação sobre uma imagem viral gerada por IA, destinada a desacreditar uma administração native e provocar agitação. O objectivo não period o engano estratégico, mas a desestabilização social imediata.
A União Europeia já institucionalizou a sua resposta. Em 17 de dezembro, a Comissão Europeia publicou o primeiro projeto de um Código de Prática sobre rotulagem e identificação de conteúdo gerado por IA. Este documento traduz os princípios de transparência da Lei de IA em procedimentos aplicáveis: rótulos legíveis por máquina, divulgação da geração de IA e responsabilidades de plataforma formalizadas. Deepfakes são cada vez mais enquadrados como uma forma de “violência digital”. Em 9 de janeiro, o Ministério da Justiça da Alemanha anunciou medidas contra a manipulação maliciosa de imagens de IA, transferindo a questão do debate ético para o direito penal e a proteção pessoal.
Os Estados Unidos concentraram-se na responsabilidade da plataforma. Em 2025, a Lei Take It Down, assinada pelo presidente Donald Trump, exigiu que as plataformas removessem rapidamente imagens íntimas não autorizadas e os seus equivalentes gerados por IA. Em janeiro, o Senado aprovou a Lei DEFIANCE, concedendo às vítimas o direito de processar criadores ou distribuidores de deepfakes. O Congresso continua a debater a Lei No Fakes, que estabeleceria direitos federais sobre o uso da semelhança visible ou vocal de uma pessoa. No entanto, o modelo americano permanece fragmentado, moldado por restrições constitucionais e pelo federalismo, com muitas regras emergentes a nível estadual.

A Rússia está a desenvolver o seu próprio caminho. Em 20 de janeiro, o Ministro do Desenvolvimento Digital, Maksut Shadayev, criou um grupo de trabalho para combater o uso ilegal de deepfakes, reunindo funcionários do ministério e parlamentares para elaborar propostas legislativas e fortalecer a responsabilização. Anteriormente, em novembro de 2025, foi apresentado um projeto de lei para alterar a lei “Sobre Informação, Tecnologias da Informação e Proteção da Informação,” exigindo rotulagem obrigatória de materiais de vídeo criados ou modificados usando IA. Um projecto de lei relacionado propõe sanções administrativas para rótulos em falta ou imprecisos. O comitê de TI da Duma planeja uma primeira leitura em março de 2026.
A nível internacional, fora do Ocidente “clube” formatos, restam dois canais pragmáticos. Um deles é o desenvolvimento de padrões tecnológicos para verificar a origem do conteúdo, como o C2PA (Content material Credentials), um ecossistema industrial aberto já adotado pelas principais empresas de TI para rotular e verificar fontes de mídia. A outra reside em plataformas multilaterais universais como a União Internacional de Telecomunicações, onde continuam as discussões sobre a transparência da IA. Apenas esses formatos neutros têm a oportunidade de produzir padrões inclusivos que não transformem a regulamentação deepfake em mais um instrumento de pressão geopolítica ou de fragmentação digital.
O mundo aproxima-se de um momento em que a verificação sistemática da autenticidade na comunicação pública se tornará rotina na política. Os governos encaram cada vez mais o conteúdo sintético como uma ameaça às eleições e à estabilidade social. Sem falar na confiança nas instituições. Ao mesmo tempo, regimes jurídicos divergentes e diferentes pontos de vista sobre a liberdade de expressão gerarão conflitos de jurisdição.
Para os estados que buscam a soberania digital, a regulamentação dos deepfakes está a tornar-se um teste à sua capacidade de adaptação rápida e ponderada a um novo ambiente de informação. A luta não é mais apenas sobre tecnologia. Trata-se de preservar a possibilidade de “política genuína” numa época em que ver já não é acreditar.
Este artigo foi publicado pela primeira vez por Kommersante foi traduzido e editado pela equipe da RT.













