Dá para diferenciar vídeo real de IA? Especialistas apontam caminhos

Vídeos hiper-realistas criados por IA desafiam a confiança no que vemos on-line e tornam mais complexa a verificação do que é ou não real

atualizado

metropoles.com

Compartilhar notícia

grinvalds/Getty Images
Pessoa navegando nas redes sociais e assistindo a um vídeo de uma mulher dançando. Conceito de assistir vídeos IA. Metrópoles
1 de 1 Pessoa navegando nas redes sociais e assistindo a um vídeo de uma mulher dançando. Conceito de assistir vídeos IA. Metrópoles - Foto: grinvalds/Getty Images

O avanço das ferramentas de inteligência artificial (IA) transformou completamente a relação do público com o que vê na tela. Mesmo pessoas jovens e habituadas ao ambiente digital têm sido enganadas por vídeos hiper-realistas, que se aproximam cada vez mais da linguagem visual do mundo real. Nesse cenário, fica a dúvida sobre até que ponto ainda conseguimos identificar quando uma imagem é falsa.

Para o especialista em Segurança da Informação Thiago Guedes Pereira, distinguir com segurança já não é algo acessível ao usuário comum. “A fronteira ficou extraordinariamente tênue. A capacidade humana de diferenciar conteúdo genuíno de sintetizado colapsou”, afirma.

Ele lembra que, até poucos anos atrás, era possível perceber falhas evidentes em vídeos criados por IA, como sombras irregulares e sincronização labial falha.

“Em 2025, esses problemas praticamente desapareceram. Humanos identificam vídeos falsos de alta qualidade corretamente apenas 24,5% das vezes. Isso significa que três em cada quatro vídeos falsos enganam a percepção visual humana”, destaca.

Segundo o especialista, nem mesmo sistemas automáticos garantem precisão absoluta. “Ferramentas de detecção são mais eficientes em laboratório, mas no mundo real a efetividade cai para algo entre 45% e 50%. Cada novo modelo lançado cria um desafio novo”, ressalta.

O que observar quando o vídeo parece perfeito?

Quando a produção é sofisticada e não entrega erros visuais, o caminho é desconfiar do contexto. O advogado Daniel Becker, especialista em proteção de dados e IA, explica que pessoas mal-intencionadas contam com a reação emocional do público.

“Vídeos fabricados surgem carregados de narrativa emocional, com pedidos implícitos de reação imediata. A ausência de histórico, de data e de informação verificável pesa mais do que a presença de um detalhe visual suspeito”, diz.

Além disso, alguns comportamentos ainda podem entregar os falsos:

  • Piscar pouco ou de forma muito regular;
  • Emoções que mudam mecanicamente;
  • Sincronização exageradamente perfeita entre voz e movimentos.

A perfeição também pode ser suspeita. “Ambientes excessivamente estáveis, sem ruídos, sombras complexas ou interferências naturais sugerem cena construída digitalmente”, aponta Becker.

Como deve mudar o consumo de informação

Becker diz que é preciso abandonar a ideia de que um vídeo, por si só, prova um fato. “A imagem em movimento deixou de ser evidência direta da realidade. O consumo de conteúdo precisa levar em conta o contexto informativo, não só o visual”, afirma.

Ele recomenda reduzir a velocidade da reação diante de vídeos chocantes e buscar validação externa antes de compartilhar. “Muitas vezes, o objetivo do vídeo não é informar, e sim induzir comportamento. A impulsividade favorece a desinformação”, reitera.

Plataformas conseguem identificar IA?

As redes sociais já utilizam mecanismos de detecção, mas o controle está longe de ser o ideal. O advogado explica que as plataformas analisam padrões matemáticos e assinaturas digitais, mas não conseguem acompanhar a velocidade dos lançamentos.

A dificuldade também passa por distinguir usos legítimos da tecnologia. Nem todo vídeo gerado por IA é um problema. “Sinalizar tudo indiscriminadamente banaliza o aviso e atrapalha artistas e produtores que usam IA de maneira ética”, explica.

Para Thiago, a solução passa pela combinação de várias frentes. “Rótulos funcionam, mas o efeito é limitado sem educação digital. A estratégia mais eficaz envolve tecnologia, regulação e formação social ao mesmo tempo”, aponta.

Ele defende literacia digital como política pública. “Educação em mídia e informação precisa entrar na escola. Não é um tema tecnológico, é um tema social”, conclui.

Quais assuntos você deseja receber?

Ícone de sino para notificações

Parece que seu browser não está permitindo notificações. Siga os passos a baixo para habilitá-las:

1.

Ícone de ajustes do navegador

Mais opções no Google Chrome

2.

Ícone de configurações

Configurações

3.

Configurações do site

4.

Ícone de sino para notificações

Notificações

5.

Ícone de alternância ligado para notificações

Os sites podem pedir para enviar notificações

metropoles.comNotícias Gerais

Você quer ficar por dentro das notícias mais importantes e receber notificações em tempo real?