A+ A- Acessibilidade
Buscar

Vídeos gerados por IA viram armas de desinformação na guerra

Por Juliana Vicentini

Conteúdos audiovisuais sintéticos circulam nas redes sociais e contribuem para moldar narrativas sobre o conflito entre EUA e Irã

Será que os vídeos de ataques e capturas de soldados na guerra que circulam pelas redes e geram milhões de visualizações são todos reais?  É a primeira vez na história que conteúdos sintéticos gerados por IA são massivamente utilizados durante um confronto armado para ampliar campanhas de desinformação em escala global.

Este fenômeno tem sido impulsionado a partir da tensão histórica entre os EUA e o Irã. O presidente estadunidense Donald Trump alegou que o governo iraniano enriquece urânio para produzir armas nucleares que colocariam o planeta em risco. Com base nesse argumento e em aliança com Israel, o Irã foi atacado em 28 de fevereiro de 2026, o que desencadeou em uma guerra.

Enquanto armas, bombas e mísseis destroem cidades e vidas, as partes envolvidas travam uma batalha informacional pela legitimação de narrativas que invade computadores e celulares. Vídeos hiper-realistas feitos por IA são produzidos em um ritmo acelerado, dificultando a compreensão do que é fato ou falso.

Imagens e vídeos gerados por IA

Realidade sintética é “quando todo o cenário, as pessoas e até a atuação são produzidos por sistemas de IA, e não apenas retocados a partir de um vídeo real. Diferente de uma edição comum (corte, legenda ou filtro), aqui a própria cena pode ser criada do zero, com avatares e ambientes artificiais. Isso vai além dos deepfakes que trocam rostos ou vozes em filmagens existentes”, explica Mateus Vicente, doutorando do Horus, projeto que utiliza técnicas de IA para identificar realidades sintéticas, do laboratório Recod.ai da Unicamp.

A criação desses conteúdos se apoia em diferentes modelos generativos. “Hoje, temos como base modelos de imagem e vídeo, como autoencoders (encoder–decoder) que aprende a ´comprimir´ um rosto e depois reconstruí‑lo em outra pessoa, mantendo expressões e movimentos faciais. As redes generativas adversárias (GANs) e modelos de difusão – este último é a base da maioria das IAs de vídeo atuais (como Sora e Veo 3) – geram quadros nítidos e realistas. Modelos temporais (como redes 3D CNN e transformers sobre sequências) ajudam a manter a continuidade entre os frames, reduzindo falhas no movimento”, elenca Vicente.

As realidades sintéticas são resultado do aprimoramento da IA que produz vídeos sofisticados. “Os modelos são treinados com enormes quantidades de imagens e vídeos, aprendendo padrões finos de textura de pele, iluminação, expressões faciais e movimentos naturais. Técnicas como GANs e modelos de difusão ajustam o resultado até que seja difícil distingui‑lo de gravações reais. Além disso, nosso cérebro tende a confiar em vídeos com fala fluente e emoções coerentes, o que reforça a sensação de autenticidade”, detalha o pesquisador.

A viralização de vídeos sintéticos durante a guerra

Os vídeos são considerados como mais atrativos aos produtores de conteúdos sintéticos devido à sua alta penetrabilidade no público. Produções audiovisuais são consideradas mais confiáveis e mais compartilhadas do que fotos ou textos, porque operam na lógica “ver para crer”. Dificilmente as pessoas questionam o que veem no vídeo, justamente por serem realistas.

Produções híbridas que integram imagem, som e movimento são mais apelativas, porque despertam emoções nas pessoas. Os vídeos também são os preferidos dos algoritmos das redes sociais, pela capacidade de alto engajamento e retenção do público por mais tempo nas plataformas. Por serem rápidos e de alto compartilhamento, a sua verificação instantânea é dificultada.

Nesse sentido, a circulação de vídeos sintéticos encontra terreno fértil na guerra entre EUA e Irã. A internet está bloqueada no território iraniano, infraestruturas de comunicação estão comprometidas e há restrições à presença de jornalistas, o que geram lacunas de informação. “A disseminação é ainda mais rápida, pois trata-se de um assunto polêmico que mexe com o emocional das pessoas, que se sentem mais motivadas e engajadas em comentar e compartilhar”, afirma Christiane Delmondes Versuti, pesquisadora de pós-doutorado do projeto Horus do Recod.ai.

Os vídeos falsos nessa guerra são inúmeros. Os três mais assistidos acumulam mais de cem milhões de visualizações. Dentre os populares, destacam-se o suposto bombardeio realizado pelo Irã em Tel Aviv, como forma de retaliação aos ataques recebidos. Outra produção audiovisual feita por IA mostra pessoas aparentemente fugindo de um ataque ao aeroporto em Israel. Há um vídeo com a hipotética captura de soldados estadunidense sob a mira dos iranianos, visto mais de cinco milhões de vezes.

Um vídeo produzido a partir de cenas de videogame que mostra um caça estadunidense supostamente invadindo um depósito de mísseis iranianos, alcançou mais de 80 milhões de visualizações. O Irã compartilhou um vídeo de supostas jovens desfilando por Donald Trump com roupas íntimas para desmoralizá-lo, o qual foi visualizado mais de 7 milhões de vezes. A rede Pravda – grupo que espalha desinformação e propaganda pró-Kremlim – tem se passado por meios de comunicação para disseminar vídeos falsos.

Redes de compartilhamento

As realidades sintéticas fazem parte de um ecossistema informacional complexo e bem articulado. Circulam em contas coordenadas, ou seja, são disparadas simultaneamente em diversas redes sociais, o que amplifica a narrativa desejada. Também contam com o impulsionamento de agentes governamentais, perfis falsos, bots automatizados e influenciadores. Há, inclusive, uma rede de contas anônimas,  sendo  algumas de veículos financiados pelo Irã.

Plataformas de comunicação se tornaram uma extensão do campo de guerra. WhatsApp e Telegram, além de redes sociais, como X, TikTok, Facebook e Instagram, se tornaram tráfego de vídeos falsos que são acessados por milhões de pessoas que as utilizam para se informar sobre a guerra. O compartilhamento ocorre em segundos, velocidade muito inferior à checagem de veracidade dos vídeos.

“A velocidade do processo de verificação de um vídeo depende do poder computacional e da complexidade do modelo implementado. Ferramentas mais simples e diretas, focadas em manipulações específicas, tendem a produzir um resultado em segundos ou minutos. Já para modelos mais complexos ou uma verificação completa, como a de redação ou de peritos, o processo pode levar horas ou dias, dependendo da complexidade do caso”, explica Vicente.

A análise mais robusta se faz cada vez mais necessária diante da ampla disseminação dessas realidades sintéticas nas redes. A circulação dessas peças gera debates sobre a responsabilização do conteúdo. De um lado, as plataformas flexibilizam a moderação porque a partilha de receitas incentiva o compartilhamento de conteúdos sensacionalistas – como os  vídeos falsos da guerra – para que  pessoas tenham ganhos financeiros. Portanto, quais mais vídeos sendo postados e assistidos, mesmo que falsos, mais dinheiro no bolso das empresas donas de tais plataformas.

De outro lado, para não ser visto como um apoiador desse tipo de produção, o X anunciou algumas medidas no dia 03 de março. Ele suspenderá os influenciadores do seu programa de monetização por 90 dias caso publiquem vídeos ou fotos de conflitos armados gerados por IA sem aviso. Se houver reincidência, os usuários serão banidos da plataforma permanentemente.

Apesar dessa iniciativa pontual do X, outras redes não tomaram medidas em relação a circulação desses vídeos. Esse comportamento encontra respaldo no fato de que elas “não possuem regras de mediação ou regulamentação eficazes à desinformação, o que dificulta o controle e combate a esse tipo de conteúdo”, adverte Versuti.

As narrativas da desinformação

Desinformação é “à produção e disseminação de informações falsas, imprecisas ou manipuladas que tem a intenção deliberada de enganar, ou seja, não foram compartilhadas por um mero erro ou acaso. Geralmente possuem objetivos políticos, ideológicos e/ou mercadológicos”, explica a pesquisadora do Recod.ai. “São produzidas com uma ´roupagem´ de notícia, que imita formato e linguagem jornalísticos para passar mais credibilidade (…). Isso prejudica o debate público e afeta as relações políticas, econômicas e sociais”.

No confronto armado no Oriente Médio, a desinformação tem sido utilizada como propaganda política e armamentista. Realidades sintéticas integram uma manipulação multidirecional porque “cada lado tem intenção de causar danos à imagem do adversário”, pontua Versuti. Os vídeos produzidos por Israel incitam a desordem política no Irã e a mudança de regime político naquele território. O governo iraniano produz tais vídeos para espalhar narrativas que enaltecem o seu poder militar, como o suposto ataque por mísseis aos porta aviões estadunidense e amplificação dos danos em Israel.

Além disso, vídeos gerados por IA nesse contexto trazem outras intenções: confundir quem não distingue realidade de ficção, espalhar medo, sugerir apoio popular inexistente, fabricar vitórias ou derrotas, criar danos aos inimigos, mostrar supostas vítimas, desacreditar adversários, influenciar decisões estratégicas, promover mensagens ideológicas, monetizar criadores de conteúdos e aumentar a audiência de plataformas audiovisuais.

A produção de desinformação por vídeos tem a IA como aliada. “Agora é muito mais rápido produzir essas peças. Com algumas palavras é possível criar um prompt e pedir para a IA criar um vídeo realista. Inclusive, pode-se utilizar a IA para criar esse prompt. A disseminação é muito mais rápida. Basta postar em redes sociais e, em questão de minutos, o conteúdo alcança proporção na casa dos milhares ou até milhões de visualizações”, afirma a pós-doutoranda.

Como evitar ser enganado

Para saber se um vídeo é sintético, é possível utilizar diversas estratégias. Há “ferramentas forenses baseadas em IA que analisam frame a frame em busca de marcas sutis de manipulação e inconsistências visuais, atribuindo uma pontuação de probabilidade de falsificação. Outras ferramentas ainda combinam análise de vídeo, áudio e checagem com bancos de dados de notícias”, relata Vicente.

Apesar dos vídeos criados por IA serem realistas, ainda é possível identificar rastros que indicam que ele é falso. “Piscadas estranhas ou raras, sincronia de lábios imperfeita, expressões ´duras´, bordas borradas no rosto e sombras que não combinam com a iluminação do ambiente. Vale prestar atenção ao áudio, como voz muito robótica, sem variação natural de entonação, ou parecendo ´descolar´ da boca´. O cenário pode colaborar para avaliar a veracidade do vídeo, pois as tecnologias pecam ao criar o ambiente ao fundo de forma natural e consistente”, explica o cientista.

Além de ficar de olhos atentos nos detalhes do vídeo, também há outras práticas para reforçar a vigilância e ajudar a identificar se é ele real ou não. “Checar a fonte, ver as datas, verificar se o conteúdo não está sendo usado atualmente fora de contexto, desconfiar de títulos muito apelativos e verificar se a url do site possui o “s” no “https”, indica Versuti.

Para saber mais: