Trabalhar como moderador de conteúdo no Facebook pode ser uma tarefa angustiante, como Trevin Brownie pode atestar.
Nesse emprego, ele testemunhou mais de mil decapitações. Ele tinha a tarefa de assistir a um novo vídeo do Facebook a cada 55 segundos, aproximadamente.
Após assistir ao vídeo, sua função era removê-lo e categorizá-lo como conteúdo nocivo e explícito. No entanto, sua primeira experiência no trabalho foi chocante.
No primeiro dia, Brownie ficou tão horrorizado que vomitou após assistir a um vídeo em que um homem se suicidou na frente de seu filho de três anos.
Infelizmente, as coisas só pioraram a partir daí. Com a voz trêmula, Brownie compartilha sua experiência:
“Você se depara com porn*grafia infantil, z*ofilia, necr*filia, violê*cia contra pessoas, viol*ncia contra animais, est*pros. Como usuário, você não vê essas coisas no Facebook. É meu trabalho, como moderador, garantir que você não veja coisas assim.”, disse Trevin Brownie, ex-funcionário do Facebook.
Ele destaca que, com o passar do tempo, a exposição a vídeos tão perturbadores afeta de maneira terrível.
Brownie, sul-africano, é um dos 184 reclamantes que moveram processos contra a Sama e a Meta por supostas violações dos direitos humanos e rescisão indevida de contratos. Esse processo é um dos maiores do tipo no mundo, embora seja apenas o terceiro movido contra a Meta no Quênia.
Os advogados envolvidos no caso argumentam que essas ações têm implicações globais potencialmente significativas para as condições de trabalho de dezenas de milhares de moderadores, que são responsáveis por filtrar o material mais tóxico das redes sociais do planeta.
Essa não é a primeira vez que surgem problemas desse tipo. Em 2020, o Facebook concordou em pagar US$ 52 milhões em um acordo para encerrar um processo e fornecer tratamentos de saúde mental aos moderadores de conteúdo nos Estados Unidos. Moderadores irlandeses também estão buscando indenizações por transtorno de estresse pós-traumático.
Os casos apresentados no Quênia são os primeiros fora dos Estados Unidos que buscam mudar a forma como os moderadores de conteúdo do Facebook são tratados.
Caso obtenham sucesso, essas ações podem levar a outras iniciativas em que a Meta e outras redes sociais sejam responsabilizadas pela análise de conteúdo publicado por empresas terceirizadas, o que poderia melhorar as condições de trabalho para milhares de funcionários que atualmente recebem salários inadequados para o serviço extenuante e degradante que desempenham.
A Meta foi contatada para comentar sobre os processos, mas afirmou que não faz comentários sobre casos em andamento.
TEM ALGUMA NOTÍCIA PARA NOS, POR FAVOR ENVIAR NO FORMULÁRIO DE CONTATO DEIXE SEUS DADOS QUE RETORNAREMOS O MAIS BREVE POSSÍVEL
Tags:
TECNOLOGIA