Fábia Oliveira

IA é uma “vilã invisível”? Famosos se tornam vítimas da tecnologia

Zezé Di Camargo, Leonardo e Chico Buarque tiveram montagens criadas na internet e especialistas alertam para os riscos à imagem pública

atualizado

metropoles.com

Compartilhar notícia

Vithun Khamsong/Getty Images
IA é uma "vilã invisível"? Famosos se tornam vítimas da technologia - Metrópoles
1 de 1 IA é uma "vilã invisível"? Famosos se tornam vítimas da technologia - Metrópoles - Foto: Vithun Khamsong/Getty Images

O avanço da inteligência artificial tem trazido benefícios em várias áreas, mas também vem causando dores de cabeça a celebridades, como Zezé Di Camargo, Leonardo e Chico Buarque, que se veem envolvidas em publicações falsas nas redes sociais. Nos últimos meses, artistas brasileiros recorreram à Justiça após terem suas imagens e vozes utilizadas sem autorização em conteúdos enganosos.

Em setembro, o cantor sertanejo Zezé Di Camargo acionou o Facebook na Justiça depois que perfis do Instagram divulgaram um vídeo feito por IA em que ele aparece, de forma manipulada, incentivando um suposto pedido de impeachment do ministro do STF, Alexandre de Moraes. Leonardo, por sua vez, apareceu em uma “filmagem” convocando Zé Felipe para um prostíbulo após a separação de Virginia Fonseca.

Meses antes, o cantor Chico Buarque também havia processado a plataforma, após a divulgação de uma publicação que unia imagens artificiais a uma de suas músicas. A montagem retratava um confronto político entre direita e esquerda, com Alexandre de Moraes caracterizado como ditador em versão de cartoon, enquanto ao fundo tocava a canção Cálice, de autoria do artista.

Análise de especialistas

Casos como esses levantam um debate urgente: até que ponto o uso da inteligência artificial pode prejudicar a reputação de figuras públicas? Para entender melhor o tema, a coluna ouviu especialistas. De acordo com Daniel Bichuetti, CEO da Forlex, os casos mostram como a tecnologia pode operar em várias frentes contra a imagem pública de um artista.

IA é uma “vilã invisível”? Famosos se tornam vítimas da tecnologia - destaque galeria
10 imagens
IA é uma “vilã invisível”? Famosos se tornam vítimas da tecnologia - imagem 2
IA é uma “vilã invisível”? Famosos se tornam vítimas da tecnologia - imagem 3
A China amplia investimentos na robótica impulsionada pela IA
IA é uma “vilã invisível”? Famosos se tornam vítimas da tecnologia - imagem 5
IA é uma “vilã invisível”? Famosos se tornam vítimas da tecnologia - imagem 6
IA é uma “vilã invisível”? Famosos se tornam vítimas da tecnologia - imagem 1
1 de 10

dowell/Getty Images
IA é uma “vilã invisível”? Famosos se tornam vítimas da tecnologia - imagem 2
2 de 10

Tara Winstead/Pexels
IA é uma “vilã invisível”? Famosos se tornam vítimas da tecnologia - imagem 3
3 de 10

Yuichiro Chino/Getty Images
A China amplia investimentos na robótica impulsionada pela IA
4 de 10

A China amplia investimentos na robótica impulsionada pela IA

Busakorn Pongparnit/Getty Images
IA é uma “vilã invisível”? Famosos se tornam vítimas da tecnologia - imagem 5
5 de 10

Surasak Suwanmake/Getty Images
IA é uma “vilã invisível”? Famosos se tornam vítimas da tecnologia - imagem 6
6 de 10

Getty Images
IA não pode substituir experiências espirituais de líderes religiosos
7 de 10

IA não pode substituir experiências espirituais de líderes religiosos

Getty Images
IA é uma “vilã invisível”? Famosos se tornam vítimas da tecnologia - imagem 8
8 de 10

Tara Winstead/Pexels
Sem dúvida, a IA teve bastante impacto recente e é cotada à Pessoa do Ano da Time em 2024
9 de 10

Sem dúvida, a IA teve bastante impacto recente e é cotada à Pessoa do Ano da Time em 2024

iStock
IA é uma “vilã invisível”? Famosos se tornam vítimas da tecnologia - imagem 10
10 de 10

iStock

“Esse episódio exemplifica perfeitamente a vulnerabilidade multivetor que a IA introduz na gestão reputacional. Estamos falando de ataques em três camadas: a criação do conteúdo falso, a propagação acelerada pelas redes sociais e a persistência digital, já que o material continua circulando mesmo após a remoção. Isso pode manchar gravemente a imagem pública, porque o dano opera em diferentes dimensões temporais, do impacto imediato à associação permanente em buscas na internet”, explicou.

Victoria Luz, também especialista em inteligência artificial, reforçou que a alta exposição dos artistas amplia os prejuízos: “O uso indevido de deepfakes pode sim abalar a imagem de celebridades. No vídeo envolvendo Zezé, a IA colocou em sua boca uma fala política que ele nunca fez, o que gerou o que ele mesmo chamou de ‘danos irreparáveis à sua reputação’. Além disso, esse tipo de conteúdo falso viraliza com facilidade e, mesmo quando desmentido, deixa uma marca duradoura na percepção do público”, destacou.

Monitoramento

Apesar das ameaças, a IA também pode ser usada como aliada na proteção da imagem de figuras públicas. Segundo Bichuetti, já existem mecanismos voltados ao monitoramento e resposta rápida: “A capacidade defensiva da IA opera em três frentes: monitoramento proativo das menções, detecção de deepfakes e automação de respostas. Embora ainda haja limitações, como a velocidade de propagação superar a de detecção, com a arquitetura certa é possível reduzir bastante o tempo de resposta, antecipar ataques e agir rapidamente para mitigar os danos”, afirmou.

Victoria complementou, ainda, que ferramentas de social listening (prática de monitorar e analisar conversas online sobre uma marca, produtos, setor e concorrentes em diversas plataformas digitais) baseadas em IA, já são usadas por celebridades e assessorias de imprensa.

“Esses sistemas acompanham em tempo real tudo o que se fala sobre um artista na internet, identificam padrões de desinformação e alertam antes que uma fake news se torne incontrolável. Ainda assim, não existe solução milagrosa: a IA deve ser combinada com ação humana e medidas legais”, ressaltou a especialista.

Uma “vilã invisível”?

Mas a IA pode ser considerada uma “vilã invisível”? Para Bichuetti, é tecnicamente correto, mas o problema vai além da tecnologia em si: “Estamos diante de um ecossistema malicioso. O custo de criação de um deepfake é baixo, enquanto o custo de defesa é alto. Além disso, plataformas ainda monetizam engajamento sem considerar a veracidade do conteúdo, e o marco regulatório está atrasado em relação ao avanço tecnológico. É uma corrida armamentista em que o atacante tem vantagem estrutural”, alertou.

Já Victoria Luz explicou que a invisibilidade desse “vilão digital” se deve ao anonimato dos autores e à sofisticação das manipulações: “Os ataques geralmente partem de perfis falsos, difíceis de rastrear, e se espalham numa velocidade impressionante, favorecidos pelos algoritmos das redes sociais. O público, muitas vezes, não consegue diferenciar um deepfake de um vídeo real, o que torna a ameaça ainda mais perigosa. Mesmo quando o conteúdo é removido, o estrago já foi feito, e parte da audiência continua desconfiando do artista”, observou.

Mesmo com ferramentas que ajudam a monitorar e se defender, a inteligência artificial, quando usada de forma maliciosa, pode arranhar a imagem até de quem já tem uma reputação sólida. Os casos de Zezé Di Camargo e Chico Buarque mostram a importância de discutir regras, limites e educação digital, para que essa tecnologia não vire um “vilão invisível” capaz de prejudicar a vida de qualquer pessoa pública.

Quais assuntos você deseja receber?

Ícone de sino para notificações

Parece que seu browser não está permitindo notificações. Siga os passos a baixo para habilitá-las:

1.

Ícone de ajustes do navegador

Mais opções no Google Chrome

2.

Ícone de configurações

Configurações

3.

Configurações do site

4.

Ícone de sino para notificações

Notificações

5.

Ícone de alternância ligado para notificações

Os sites podem pedir para enviar notificações

metropoles.comFábia Oliveira

Você quer ficar por dentro da coluna Fábia Oliveira e receber notificações em tempo real?