Conflito no Oriente Médio e chuvas em MG impulsionam vídeos falsos com IA e mostram nova face da desinformação
tecnologia

Conflito no Oriente Médio e chuvas em MG impulsionam vídeos falsos com IA e mostram nova face da desinformação

Vídeos falsos sintéticos ganham força à medida que geradores de imagem evoluem; solução tecnológica não é simples

  • Facebook
  • Twitter
  • BlueSky
  • Sem tempo? Ferramenta de IA resume para você

    GERADO EM: 03/03/2026 - 14:48

    Proliferação de Vídeos Falsos em IA Aumenta Desinformação Online

    O conflito no Oriente Médio e as chuvas em Minas Gerais catalisaram a proliferação de vídeos falsos gerados por inteligência artificial, evidenciando um novo patamar da desinformação online. Vídeos falsos de eventos como o incêndio no Burj Khalifa e enchentes em MG ganharam milhões de visualizações, desafiando a capacidade de detecção e controle das plataformas digitais. A evolução dos geradores de IA, como Seedance 2.0 e Nanobanana 2, aumenta a complexidade desse cenário, exigindo novas estratégias para enfrentar a desinformação.

    CLIQUE E LEIA AQUI O RESUMO

    Fogo no Burj Khalifa, corredeiras descontroladas de água, voos rasantes de aviões iranianos e solidariedade inacreditável entre animais. O novo conflito no Oriente Médio e a tragédia climática em Minas Gerais mostraram o novo estágio da desinformação online: a disseminação em massa de vídeos gerados por inteligência artificial durante eventos de grande atenção pública.

    Logo após a ação coordenada de EUA e Israel contra alvos iranianos no sábado (28), e a retaliação imediata que seguiu, vídeos no X passaram a circular do que seriam alguns dos ataques. Em um deles, o Burj Khalifa, o edifício mais alto do mundo, aparece em chamas, como se tivesse sido atacado por uma bomba, algo que não aconteceu. Apenas um dos perfis que reproduzem o vídeo, que tem sinais claros de produção por IA, tinha mais de 1 milhão de visualizações.

    • Índia e big techs roubam holofotes em cúpula da IA, enquanto governança global perde força
    • Pornografia infantil gerada por IA faz denúncias na internet crescerem 19,3% em 2025, diz Safernet

  • Índia e big techs roubam holofotes em cúpula da IA, enquanto governança global perde força
  • Pornografia infantil gerada por IA faz denúncias na internet crescerem 19,3% em 2025, diz Safernet
  • Nesta segunda (2), um outro vídeo postado no X durante a madrugada mostra aviões dando rasantes em Dubai, enquanto lança mísseis. Era outro conteúdo falso gerado por IA — a mão do homem na sacada denuncia a fabricação. Somente um dos perfis tinha mais de 6,5 milhões de visualizações. A rede social de Elon Musk traz ainda vídeos de pessoas supostamente aterrorizadas nas ruas de cidades que tentam imitar os Emirados Árabes, além de supostos ataques contra porta-aviões americanos.

    A disseminação de informações falsas durante conflitos não é nova, mas, na semana passada, também se estendeu para um evento de comoção pública: as enchentes em Minas Gerais. No TikTok, vídeos mostravam correntezas desproporcionais e desabamento de imóveis: um dos vídeos já tinha mais de 1 milhão de visualizações, enquanto outro se aproximava de 700 mil.

    Surgiram também vídeos comoventes de animais presos pela enchente em um tentativa de reproduzir a história do cavalo Caramelo nas grandes enchentes do Rio Grande do Sul, em 2025. Um único vídeo de uma vaca carregando quatro cachorros tinha quase meio milhão de visualizações. Em alguns casos, os vídeos levavam a supostas campanhas de arrecadação de fundos para vítimas das enchentes. Em outros casos, havia críticas a governantes.

    O X não responde a pedidos da imprensa. Ao GLOBO, o TikTok diz que removeu os vídeos apresentados pela reportagem à empresa por violar as diretrizes de integridade e autenticidade.

    A nota da companhia diz:

    "Essa proibição abrange conteúdo enganoso gerado por IA, teorias da conspiração prejudiciais e outras informações falsas relacionadas a segurança pública, crises ou grandes eventos cívicos, especialmente quando esse tipo de conteúdo pode incitar violência ou provocar pânico público.

    Mesmo com rótulos, alguns conteúdos editados ou gerados por IA ainda podem ser prejudiciais. Por isso, proibimos conteúdo gerado por IA ou conteúdo com muita edição que induza ao erro sobre um assunto de importância pública, como:

    • Conteúdo apresentado como se viesse de uma fonte de notícias real;
    • Um evento de crise, como um desastre natural ou conflito;
    • Uma figura pública retratada como se tivesse tomado posições políticas, promovido produtos ou comentado questões públicas, mesmo sem nunca ter feito isso de verdade;
    • Uma declaração de apoio ou crítica política que nunca aconteceu."

  • Conteúdo apresentado como se viesse de uma fonte de notícias real;
  • Um evento de crise, como um desastre natural ou conflito;
  • Uma figura pública retratada como se tivesse tomado posições políticas, promovido produtos ou comentado questões públicas, mesmo sem nunca ter feito isso de verdade;
  • Uma declaração de apoio ou crítica política que nunca aconteceu."
  • Problema que deve se agravar

    Problema que deve se agravar

    O uso de IA em assuntos de interesse público não é algo novo: desde a disseminação dos geradores de imagem, a partir de 2023, as ferramentas vêm sendo cada vez mais usadas. Em 2023, o argentino Javier Milei chegou a usar vídeos criados por IA na sua vitoriosa campanha à presidência, enquanto Donald Trump passou a usar rotineiramente imagens sintéticas desde que assumiu a Casa Branca. Em janeiro deste ano, fotos geradas por IA viralizaram durante o ataque dos EUA à Venezuela, especialmente as que mostravam a suposta detenção de Nicolas Maduro. E a tentativas de usar deep fakes, vídeos reais alterados por IA, ocorrem há alguns anos.

    Mas os eventos no Oriente Médio em Minas Gerais mostram que os geradores de vídeo por IA se tornarão um grande desafio no já complexo cenário da desinformação online. Ao menos duas novas IAs lançadas em fevereiro impressionam pelo nível de detalhes, realismo e precisão: o Seedance 2.0, da ByteDance, dona do TikTok, e Nanobanana 2, do Google.

    Lançado em 10 de fevereiro, o Seedance incomodou produtores de Hollywood pela sua capacidade cinematográfica de produzir conteúdo. Já o Nanobanana 2 saiu em 26 de fevereiro e foi integrado ao Gemini. Ele é alimentado por informações e imagens em tempo real provenientes de buscas no Google para representar com mais precisão assuntos específicos — nos primeiros testes feitos por especialistas, chamou atenção pela riqueza e nível de detalhe.

    Até aqui, geradores de IA apresentavam limitações que não passavam despercebidas a olhos mais atentos — e céticos — como explica Carolina Terra, pesquisadora e professora da USP.

    — Os vídeos apresentam inconsistências visuais, iluminação incoerente e desalinhamento entre voz e imagem.

    Tanto os vídeos do Oriente Médio quanto os de Minas Gerais mostravam problemas: corredeiras que desafiavam a gravidade, pessoas com mãos deformadas e incêndios com aspecto artificial. Tudo isso deve ser reduzido nas próximas gerações de vídeos criados com IA. E não há solução fácil.

    Em todos os casos, técnicas simples também podem afetar a eficiência dessas assinaturas. Além disso, as ferramentas de detecção disponibilizadas por essas empresas só funcionam com IAs desenvolvidas por elas. Ou seja, a detecção do Google não funciona para IAs da OpenAI.

    A esperança seria uma detector universal de vídeos gerados por IA, mas esse caminho também enfrenta desafios técnicos, como explica Gabriel Bertocco, pesquisador do Recod.ai, laboratório de IA da Universidade Estadual de Campinas (Unicamp):

    Detectores podem não saber lidar, inclusive, com novas gerações de IAs que participaram do treinamento inicial. Por exemplo, uma ferramenta treinada com dados da primeira versão do Sora, da OpenAI, pode não ser tão eficiente para material feito pelo Sora 2.

    Como identificar vídeos por IA

    Como identificar vídeos por IA

    Para não ser enganado por vídeos como os que dominaram as redes nos últimos dias, os especialistas dão dicas que vão além de soluções tecnológicas ou de apontar para falhas evidentes nas produções

    — A origem do vídeo é muito importante. A primeira coisa é ficar atento a quem publicou e em qual momento. Isso coincide com algum período crítico? Desconfie — diz Carolina Terra.

    Bertocco acrescenta:

    — É preciso buscar veículos responsáveis de jornalismo e fazer a sincronização de informações com múltiplas fontes. Essa é a dica que eu sempre dou.

  • Google
  • Inteligência Artificial
  • TikTok