A batalha para que Meta pague pelo tratamento dos moderadores que apagam os horrores: “Foi uma tortura psicológica”
Por Carlos del Castillo | IHU Unisinos
Data original de publicação: 18/09/2024
Os moderadores de conteúdo do Facebook e do Instagram em Barcelonaacusam a rede social e as suas terceirizadas de crimes contra os trabalhadores e a integridade moral por fazê-los reverem mutilações, suicídios ou pedofilia sem apoio psicológico e a um ritmo “desumano”.
A reportagem é de Carlos del Castillo, publicada por El Diario, 15-09-2024. A tradução é do Cepat.
“A coisa mais dura que vi foi um vídeo de como começaram a abusar de uma menina; ela tinha uns cinco anos. Isso me marcou muito, porque naquele momento senti como se estivessem tirando a infância dela, tirando-lhe toda a felicidade”.
Experiências semelhantes a estas vêm à tona em cada conversa com moderadores de conteúdo da Meta. Eles são responsáveis para garantir que os maiores horrores que os usuários tentam enviar para o Facebook e o Instagram não sejam vistos por outros usuários. Decapitações, pedofilia, terrorismo. “São coisas que ninguém nunca deveria ver”, deixa claro um deles em conversa com elDiario.es. Os olhos destes trabalhadores são os únicos que chegam a vê-las, separando-as do resto dos membros da plataforma.
Mas esse não é o seu único trabalho. Seu papel não consiste em apenas apertar um botão e apagar o vídeo de um assassinato ou bloquear a transmissão ao vivo de um suicídio. Eles devem revisar o conteúdo e marcar o que está acontecendo para que a inteligência artificial seja capaz de identificá-lo e detê-lo sozinha no futuro. Eles têm que prestar atenção a imagens que nunca esquecem e suspendê-las da melhor maneira possível.
É um dos trabalhos mais ocultos e terríveis da sociedade digital. Os 1.800 moderadores que a Meta tem em Barcelona denunciam que o fazem sem qualquer preparação psicológica e sob enorme pressão dos seus superiores. A terceirizada para a qual trabalham, a Telus International, comprometeu-se com a empresa de redes sociais que cada um deles revise pelo menos 300 tickets de moderação por dia com uma taxa de acerto de 89%. Se se aproximarem ou ficarem abaixo desses números, há consequências.
“Supõe-se que podemos ligar para um número de telefone de suporte. Eu tentei ligar e localizar um psicólogo depois de assistir a um vídeo de como um menor foi mutilado, mas não havia nenhum disponível. Cheguei a enviar um correio eletrônico para o team manager. Eles me disseram que sim, que me ligariam e que não me preocupasse. Tive que fazer sete ou oito ligações e no final não consegui falar com ninguém. Passaram-se 20 minutos e absolutamente ninguém me atendeu”, conta o mesmo moderador.
A Meta promoveu a criação de vários destes centros de moderação de conteúdo na Europa a partir de 2018, após o escândalo da Cambridge Analytica e do Brexit. Um ano depois, elDiario.es revelou pela primeira vez na Espanha qual era a situação que estas pessoas enfrentavam cada vez que se sentavam em frente ao computador. “É um trabalho muito difícil: fiquei um mês e saí de lá com a cabeça massacrada. Você passa 8 horas, cronometradas, sem parar de consumir vídeos e fotografias em que muitas vezes há pedofilia, ataques a menores, animais…”, disse a este jornal uma moderadora do centro de Lisboa.
Agora os moderadores da Meta em Barcelona deram um basta. Em novembro passado, uma dezena deles contou ao La Vanguardia como o seu trabalho lhes estava custando a saúde mental. Vários decidiram levar o caso à justiça. Em fevereiro, o juiz decretou que o distúrbio mental sofrido por um dos jovens, derivado da visualização diária destes conteúdos brutais, deveria ser considerado um acidente de trabalho e concedeu-lhe incapacidade absoluta.
Esta semana, o moderador decidiu ir mais longe e estender à própria Meta a queixa-crime que apresentou contra a terceirizada Telus e seis dos seus gestores, como também adiantou o jornal catalão [La Vanguardia]. Alega que a empresa de redes sociais é diretamente responsável pelas “condições de trabalho comparáveis a uma verdadeira tortura psicológica, caracterizadas pelo descumprimento contínuo e flagrante das normas trabalhistas relativas à prevenção de riscos laborais”, pode-se ler no texto da denúncia ao qual elDiario.es teve acesso.
Pede ao juiz que condene a Meta por três crimes: por violação dos direitos dos trabalhadores, lesões imprudentes e contra a integridade moral. “Tudo é motivado pela declaração em tribunal de um dos responsáveis da subempreiteira em Barcelona, que explicou que todas as orientações em matéria laboral, que é o que é mais grave para nós, são impostas pela Meta”, aponta o advogado do moderador, Francesc Feliu.
“O que quero dizer com isso? Bom, por exemplo, a quantidade de tickets, de vídeos enfim, que precisam visualizar por dia. Segundo a empresa, são cerca de 300. Nós defendemos que é um número ainda maior. Mas 300 por dia é algo desumano”, prossegue o advogado do escritório Espacio Jurídico Feliu Fins, que também representa outros 25 moderadores que apresentaram queixas à Inspeção do Trabalho. “Depois tem o nível de sucesso na rotulagem do conteúdo, que deve ficar acima de 89%. Se ficarem abaixo disso podem ser demitidos”.
“E tudo isso sem receber nenhum treinamento real sobre o que iriam ver e como administrar os conteúdos”, enfatiza. elDiario.es contatou cinco moderadores e todos negam que a empresa tenha realizado um teste de risco psicossocial antes de 2024.
A empresa afirma que menos de 1% dos afastamentos estão relacionados à saúde mental
A Meta evitou fazer declarações oficiais após ser contatada pelo elDiario.es. A empresa estadunidense referiu-se a informações públicas sobre como gerem a moderação de conteúdos, que inclui uma combinação de tecnologia, relatórios de usuários e revisões manuais de equipes como a de Barcelona. A corporação garante que melhora continuamente os seus algoritmos e que a percentagem de conteúdos brutais que passam pela moderação humana é cada vez menor.
A Telus International manifestou que “todos os moderadores de conteúdo recebem extenso treinamento, que inclui a capacitação em resiliência e prática ao vivo com funcionários experientes antes de trabalharem de forma independente”. “Uma vez que trabalham de forma independente, os membros da equipe recebem apoio contínuo através de avaliações regulares, capacitação contínua e programas interativos com profissionais de saúde mental”, descreve num comunicado enviado a este jornal.
A empresa afirma que emprega “conselheiros qualificados, orientados por psicólogos, que prestam serviços confidenciais e abrangentes de saúde mental. Os membros da equipe também podem solicitar intervalos ou sessões individuais de emergência com conselheiros a qualquer momento, caso forem expostos a conteúdo perturbador.” “Estima-se que os problemas de saúde mental relacionados ao trabalho representem apenas 1% do total de licenças médicas na empresa”, afirmam. Estas, na verdade, atingiram mais de 20% nos últimos anos.
“Os moderadores de conteúdo da Telus International são remunerados 66% acima do acordo coletivo de contact center devido ao seu importante papel social”, enfatiza a empresa. Em 2022, a Telus foi multada pela Inspeção do Trabalho por deficiências na avaliação e prevenção de riscos psicossociais no local de trabalho. A multa chegou a mais de 40.000 euros.
“Não sabíamos no que estávamos nos metendo”
“Eles começaram a recrutar em maio de 2018. Eu fui da primeira leva”, explica outra ex-moderadora, que, como quase todas as pessoas contatadas para esta informação, prefere não ser identificada para não aumentar ainda mais a sua exposição pública. “Eles contrataram muita gente ao mesmo tempo, de muitas nacionalidades, porque era disso que precisavam para cobrir vários mercados. Que melhor cidade do que Barcelona, que é multicultural, para instalar a sua sede! E, fora isso, num país como a Espanha, que para eles (e percebemos isso mais tarde) é barata e, como pensavam, era flexível nas suas leis trabalhistas”, continua.
“Nos e-mails e nas entrevistas eles não diziam em que empresa você iria trabalhar ou o que realmente faria. A única coisa que pediam era se dominava o inglês. Mas ofereceram um contrato por tempo indeterminado, um vale refeição de 9 euros por dia e 24 mil euros brutos por ano, o que naquele momento era uma glória”, recorda a mesma trabalhadora, que deixou a Telus em maio passado.
“Como lhe diziam que não podiam contar muita coisa, tudo aparentava ser sério. Eles falavam de um posto de community manager. Na entrevista perguntavam coisas, tais como: que animal você gostaria de ser? Ninguém perguntava se você já teve pensamentos suicidas ou coisas do gênero. Depois eles te mandavam para uma pequena sala e perguntavam se você estava disposta a assistir ‘conteúdo forte’. ‘Conteúdo forte como o quê?’ Eles não davam muitas explicações, apenas que se eu estava disposta a remover conteúdo feio de uma página. Eu disse que sim, porque tinha duas sobrinhas e não queria que elas vissem esse tipo de coisa. Achei que tinha me saído mal. Mas me ligaram”, relata.
Somente uma vez já na Torre Glòries, onde estavam instalados os escritórios de moderação de conteúdo da Meta, realmente souberam para quem iriam trabalhar. “Aí ficamos muito entusiasmados, pensamos que íamos trabalhar no Facebook! Não sabíamos que havíamos, na realidade, entrado no lixo do Facebook”, ironiza. Havia coisas estranhas, como essa de que a empresa querer evitar qualquer contato entre eles limitando os intervalos a cinco minutos e impedindo-os de comerem juntos. Mas deixaram assim, tomando isso como uma prática padrão da multinacional.
Enquanto isso, espalhava-se na imprensa a notícia de que a empresa de Mark Zuckerberg iria abrir centros na Europa para combater a desinformação para impedir escândalos de manipulação como o Brexit ou a Cambridge Analytica. “Acreditávamos que fazíamos parte da mesma coisa. Quando começamos a trabalhar e a ver esse tipo de conteúdo fiquei surpreso, porque estava indo muito bem. Mas nesse momento você está entusiasmado, pensávamos que se fizéssemos bem o trabalho nos passariam para as fake news”.
“Você sabe o que acontecia se fazia tudo certo? Eles transferiam você para uma equipe chamada de high priority”, continua a ex-funcionária. Ela explica que o trabalho básico de moderação nas redes Meta consiste em conhecer muito bem as regras da plataforma sobre quais conteúdos devem ser bloqueados e quais não. Os moderadores que alcançam bom desempenho em determinada área são considerados “especialistas” nela pelo sistema interno. “A high priority consiste em assistir aos conteúdos mais pesados, como suicídios ao vivo. Fiquei fazendo isso e não via mais outra coisa”.
Com o tempo, a exposição a este conteúdo acaba provocando “pesadelos muito vívidos” nos moderadores, declararam vários deles nas suas conversas com este jornal. No caso desta ex-moderadora, que também levou a Telus ao tribunal, ela via no seu corpo os mesmos cortes e automutilação que tinha de moderar todos os dias.
“Eu pedi várias vezes à empresa para me remover dessa tarefa, pelo menos por um tempo, mas eles não fizeram nada. Perguntei aos psicólogos, mas eles me disseram que não poderiam entrar em contato com a empresa. Tudo acabou virando um coquetel de angústia e raiva. Minha cabeça era uma bomba. Tive ataques de pânico no escritório. Mas você quer continuar porque vê que seus colegas continuam. Só anos depois pudemos saber que muitos de nós estávamos passando pelos mesmos problemas”, lembra ela emocionada.
“Certa vez eu disse a uma psicóloga que tinha vontade de pular de uma janela, mas por uma janela do escritório, para que todos soubessem o que estava acontecendo lá dentro. Foi num momento de fraqueza e pensei que depois disso iriam me demitir. Mas nada aconteceu”, confirma. “A única coisa que diziam era que no dia em que sentir raiva era para pegar uma almofada e jogá-la contra a parede!”
“Vamos arrastar isso por toda a vida”
“Eu vou para uma terapia externa. A empresa dá algumas horas para você conversar com um psicólogo, mas não é suficiente”, afirma outro moderador, que continua trabalhando na Meta. “Estou muito feliz que tudo isso esteja vindo à tona e que a empresa tenha que pagar por isso. Eles nos ameaçam com fechar a empresa e sair daqui, mas o que estão fazendo não é suficiente. Não basta pagar pelos danos psicológicos que estamos recebendo, porque amanhã, se eles quiserem fechar e ir para outro lugar, bom para eles é isso, acabou. Mas a nossa saúde mental acabou junto com a empresa. Vamos arrastar isso por toda a vida”, lamenta.
Como foi possível chegar a essa situação? A questão fica confusa quando se faz esta pergunta às fontes envolvidas. elDiario.es conversou com vários moderadores, com o comitê de empresa formado pela UGT e CCOO e com o sindicato independente FIST (Força Independente Sindical de Trabalhadores), que tem incentivado os trabalhadores a levarem seus casos à justiça e à Inspeção do Trabalho.
Os moderadores de conteúdo são unânimes em apontar um clima de pressão insuportável dentro da empresa, bem como acusações de seus superiores de terem exagerado na situação emocional para obter demissões fraudulentas. Mencionam ligações inquisitoriais diárias para “perguntar como estavam” todos aqueles que tomaram a iniciativa de tirar licença médica. Muitos acusam o comitê de empresa de não ter feito o suficiente.
Eles também recordam o medo de perder o salário acima do mercado que a terceirizada da Meta paga. Tudo isso aliado à situação desenraizada de boa parte do quadro de funcionários: trata-se de trabalhadores de vários países escolhidos para o posto justamente pelo conhecimento de diferentes idiomas e contextos culturais, o que facilita seu trabalho de moderação. Para alguns, o salário maior permite-lhes enviar mais dinheiro para as suas famílias nos seus respectivos países de origem.
“O funcionamento draconiano dentro da empresa não é exclusivo da Telus, mas se estende a todo o setor do contact center. É como um moedor de carne. São empresas em que você é a bateria que alimenta o negócio e quando você descarrega, acabou. Você se queimou e pronto. Não se preocupam com a saúde dos trabalhadores”, denuncia Miguel Ángel Bachs, porta-voz da FIST, que tem uma secção sindical na Telus.
“O problema é que neste caso se juntou ao tipo especial de conteúdo a que os trabalhadores estão expostos”, continua, “e com a total falta de fiscalização dos sindicatos que compõem o comitê de empresa”. “As medidas que dizem ter acordado para prevenir isso, como o departamento de psicólogos, são meramente cosméticas”, acusa o sindicalista.
Fontes do comitê de empresa afirmam que as negociações com a administração “focam na tentativa de reduzir este tipo de conteúdo nocivo; que haja maior apoio psicológico e, claro, que todas as medidas necessárias sejam implementadas para que os moderadores não sejam tratados como simples robôs, mas como pessoas que filtram todo o conteúdo obscuro das redes sociais”.
Enquanto isso, os moderadores esperam que a justiça triunfe. Todos os que participaram desta matéria dizem sentir-se “aliviados” pelo fato de o assunto estar vindo à tona. “Você percebe que esse era um problema geral, não da maioria, mas de muitos. Tudo gerado pelo trabalho e agravado pelas ações da empresa. Eles não fizeram isso acidentalmente. Eles sabiam que estavam deixando as pessoas doentes e não se importavam”.
Na atual sociedade de riscos, o recente apagão digital demonstra: os mesmos sistemas de mitigação de tragédias causarão as falhas e acidentes – porque sua lógica de oligopólio os produz. Saída: combater a concentração de dados e regular a internet.
Clique aqui e acesse a matéria completa