Estudo revela mais de 900 palavras “desmonetizáveis” no YouTube

Após anos de confusão, um grupo de pesquisadores se propôs a tentar desvendar os mistérios por trás do algoritmo da plataforma

Yanka Romão/MetrópolesYanka Romão/Metrópoles

atualizado 06/10/2019 14:33

O que as palavras environmental, ghetto, transition, palestine, brazil e gay têm em comum? Todas são vistas pelos bots do YouTube como “problemáticas”. Um grupo de youtubers e pesquisadores se uniram e testaram 15.296 palavras em títulos de vídeos na plataforma para tentarem descobrir, finalmente, o que está causando a desmonetização automática de certos conteúdos.

O que o canal YouTube Analyzed (de Andrew, que apesar do nome do canal não trabalha para a plataforma), juntamente com Sealow e Nerd City descobriram partes do quebra-cabeça que é o algoritmo do serviço. Há um ano e meio atrás, Sealow também descobriu códigos que indicam as razões pelas quais alguns vídeos foram desmonetizados. Agora, o novo estudo – feito completamente em inglês – revela quais palavras usadas no título, thumbnail, tags e até na descrição do vídeo podem desmonetizá-los.

Se um bot (robô) encontrar um problema nas palavras usadas, o vídeo em questão pode não ser enviado para os inscritos do canal e também não aparecerá na aba de relacionados, onde a maioria dos criadores de conteúdo da plataforma conseguem exposição a novos inscritos. O problema é que não somente a avaliação é escondida como todos os resultados dos bots também. O YouTube já explicou o sigilo dessas informações: “Se explicarmos como o site funciona, ‘maus agentes’ podem tomar vantagem do sistema”.

Então, já que a plataforma se recusa a explicar as políticas deles, esse grupo de youtubers decidiu procurar a resposta sozinho. Com base nos termos mais procurados do Google e no Urban Dictionary, os pesquisadores testaram cada palavra individualmente em vídeos de dois segundos sem áudio nem imagens que pudessem afetar a monetização do conteúdo – ou seja, caso a produção fosse desmonetizada, seria apenas por causa das palavras usadas.

Segundo o relatório, “os bots da desmonetização usam um nível de [aceitação] de 0 a 1. Se [as palavras no] seu vídeo passarem dos limites do YouTube, seu vídeo será desmonetizado e uma revisão manual será requerida para reverter a decisão das máquinas”. Andrew (YouTube Analyzed) explica que essa métrica vai de verde (aceitável e monetizada) a amarelo (problemática e desmonetizada), e há um certo ponto onde o “peso” da palavra deixa de ser verde e passa a ser amarelo.

Ele ainda afirma que “há alguns nomes que estão nesta linha [de divisão], a depender do dia, são verdes ou amarelos… Há também outras palavras que são tão amarelas que não importa o contexto – elas sempre serão desmonetizadas”, como é o caso da palavra ISIS, que segundo o estudo, “tranca o vídeo” . Quanto mais baixo o peso, mais aceitável é uma palavra para os padrões secretos da plataforma. Algumas expressões e frases problemáticas permanecem monetizadas, como incel e “how to murder” (como assassinar).

A censura LGBT

O estudo também descobriu que palavras como straight e heterosexual (ambas referentes à heterossexualidade) são monetizadas, enquanto outras que são relacionadas à comunidade LGBT são quase sempre desmonetizadas. No estudo, eles registram títulos testados com contextos perfeitamente aceitáveis para patrocinadores do Google, porém, eles caíram na ‘lista proibida” por conterem os termos gay, lesbian e LGBT. No teste, os pesquisadores usaram os mesmos títulos em outros vídeosm substituindo “gay” por “happy” e “lesbian” por “friend” – assim, as produções foram monetizadas.

Por outro lado, o YouTube sempre expressou apoio a essas causas, fazendo vídeos em comemoração ao mês do orgulho LGBT todos os anos e destacando influencers da plataforma que fazem parte da comunidade. “O que a nossa lista prova, e algo que nunca foi dito aos criadores LGBT, é que eles podem ser gay, só não podem falar sobre isso – caso contrário, eles não recebem seu salário”, acusou o dono do canal Nerd City.

O sistema

Se seu vídeo for desmonetizado, o criador de conteúdo pode pedir para que o conteúdo passe por uma revisão realizada por um voluntário humano anônimo. Neal Mohan, encarregado dos produtos do YouTube, afirmou em entrevista ao mexicano Luisito Comunica que o algoritmo da plataforma é inteligente e aprende quando um revisor humano monetiza um vídeo que o bot “derrubou”. Seguindo essa lógica, o robô não repetiria o erro corrigido pela ação humana.

Levando em conta que há mais de 900 palavras desmonetizáveis (registradas no estudo) e mais de 500 horas de vídeos compartilhadas no site por minuto, a necessidade de revisores humanos é imensa. Em 2018, o YouTube afirmou ter contratado cerca de 10 mil funcionários destinados a esse trabalho. A plataforma nunca explicou como eles são instruídos. Segundo os pesquisadores, a companhia responsável por esse serviço é a Lionbridge, criticada amplamente por ex-funcionários pela falta de comunicação, instrução e baixo pagamento.

Reprodução do YouTube
Demarcados no mapa mostrado no vídeo do Nerd City estão os países com leis anti-homossexuais onde a Lionbridge está contratando funcionários. Na Índia, a homossexualidade era ilegal até 2018, enquanto na Rússia, as leis de “propaganda gay” proíbem vídeos que mostram o estilo de vida de pessoas da comunidade

Além disso, os serviços dessa companhia funcionam ao redor do mundo – inclusive em países onde a homossexualidade é um crime, como Egito, Kenya, Somália, Afeganistão, Indonésia, Malásia, Arábia Saudita, Singapura, Sri Lanka e os Emirados Árabes Unidos. É aí que está a questão: apesar de não ser um crime em outros países, qual é a garantia que os revisores de vídeos se manteriam imparciais ao julgar um conteúdo onde um casal de homens, por exemplo, faz um guia de viagens em Vienna?

Outros grupos afetados

Os bots não apenas miram em termos LGBT, mas também em qualquer palavra que pode ser atrelada a um tópico controverso. Vídeos que ensinam programação, história e até tópicos como a epidemia de cigarros eletrônicos nos Estados Unidos foram desmonetizados sem uma avaliação prévia sobre o contexto. O canal Coffee Break lançou um estudo que fizeram sobre os perigos desses novos produtos na saúde das pessoas e como isso se relaciona ao fumo de tabaco: a produção foi desmonetizada.

Griffin, do canal Armchair Historian, ao detalhar a batalha de Dien Bien Phu – um conflito que não deveria ser desmonetizado por não tratar de temas como o holocausto, nazistas ou Adolf Hitler – teve seu vídeo desmonetizado secretamente (sem notificar o criador). Em uma live-stream, ele mostrou que apenas faturou US$ 1.66 sem nenhuma razão. O youtuber ainda lamenta a falta de consistência no julgamento do YouTube e a falta de comunicação entre a plataforma e os criadores.

Além disso, termos de programação como database, SQL, program, http, xml, xhtml, username, password, que seriam inofensivos para qualquer tipo de monetização exceto em vídeos ensinando a hackear também são registrados no estudo como automaticamente desmonetizados. Curiosamente, apenas a palavra democrat é proibida em meio a qualquer outro termo político.

Também é importante lembrar que os únicos canais que sofrem o risco da desmonetização são aqueles de criadores não atrelados a um grande nome da indústria de entretenimento. Canais que fazem o upload de programas com celebridades – como Jimmy Kimmel, John Oliver, James Corden, Buzzfeed, Netflix etc – não correm o mesmo risco apesar de tratarem de tópicos controversos como notícias sobre ataques terroristas, a comunidade LGBT, legislações etc.

Para ler o estudo completo em inglês, clique aqui. Para ver as listas de palavras testadas, clique aqui. Para ver o estudo de títulos com terminologia LGBT, clique aqui.

Últimas notícias