Os horrores vividos pelos moderadores de conteúdo da Meta: ‘Eu não sabia do que os humanos são capazes’

A decisão que atribui os problemas de saúde mental de um moderador de conteúdo ao seu trabalho abre caminho para que este reconhecimento chegue pelo menos a outros 25 funcionários

A torre Glòries de Barcelona, no destaque, onde funciona a terceirizada da Meta de moderação de conteúdo — Foto: Reprodução

Por Josep Catà Figuls Em El País — Barcelona

Depois de ter que assistir repetidamente a vários vídeos de suicídios, assassinatos, desmembramentos e estupros, ele teve um ataque de pânico e pediu ajuda. O funcionário, que trabalhava como moderador de conteúdo para uma empresa que presta serviços para a Meta – proprietária do Facebook, Instagram e WhatsApp – foi orientado a ir para o andar da diversão: uma grande sala de jogos localizada em um dos andares da torre Glòries, em Barcelona, onde estão localizados os escritórios de moderação de conteúdo da gigante californiana da tecnologia.

Ele ficou sentado olhando fixamente para uma mesa de pingue-pongue. O andar divertido não o ajudou em nada. Em outra ocasião, seu chefe lhe deu permissão, duas horas depois que ele teve outro ataque de pânico, para consultar uma psicóloga da empresa. Ela estava em outro andar, o andar da psicologia.

Ele passou mais de meia hora conversando com ela, desabafando. Quando terminou, ela lhe disse que seu trabalho era muito importante para a sociedade, que todos eles eram heróis, que ele deveria ser mais forte. E que o tempo havia se esgotado.

Os moderadores de conteúdo são os responsáveis por manter o mural do Facebook ou os feeds do Instagram limpos e pacíficos, plataformas que milhões de pessoas usam todos os dias e que não sabem que esse lado obscuro existe. Esses funcionários são os que decidem se devem ou não publicar notícias falsas ou fotos que não estejam em conformidade com a política do Meta.

Em 2018, a empresa CCC Barcelona Digital Services se instalou em uma dúzia de andares da Torre Glòries. O anúncio foi muito bem recebido pelas autoridades catalãs, pois a subcontratada dessa grande empresa de tecnologia estava aumentando a lista de empresas inovadoras instaladas em Barcelona e ocupando parte de um edifício que, por causa do processo, acabara de perder a oportunidade de sediar a sede da Agência Europeia de Medicamentos.

A empresa começou a contratar principalmente jovens estrangeiros que falavam vários idiomas para moderar o conteúdo de diferentes mercados. Em outubro passado, uma investigação do La Vanguardia revelou as condições em que esses moderadores trabalham.

Antes disso, a Inspetoria do Trabalho da Generalitat iniciou uma investigação em 2021 e, no ano seguinte, impôs uma multa de mais de 40.000 euros à empresa por deficiências na avaliação e prevenção de riscos psicossociais no local de trabalho.

Em 2020, a empresa foi adquirida pela canadense Telus International, que alega que as acusações são falsas e que eles têm medidas de segurança suficientes em vigor.

Esse trabalhador entrou em 2018 e ficou até 2020, quando foi colocado em licença médica por causa de seus problemas de saúde mental. A empresa e a seguradora classificaram o problema como uma doença comum.

“Então, solicitamos uma mudança de contingências, porque o caso dele se encaixava perfeitamente no de um acidente de trabalho. O Instituto Nacional de Seguridade Social concordou conosco e a empresa recorreu, o que levou a uma ação judicial”, explica Francesc Feliu, sócio do escritório de advocacia Espacio Jurídico Feliu Fins, especializado em questões de saúde.

No último dia 12, o 28º Tribunal do Trabalho de Barcelona rejeitou a reivindicação da empresa e decidiu que a licença médica deveria ser classificada como um acidente de trabalho. Essa é a primeira decisão a reconhecer que a doença mental sofrida por um moderador de conteúdo é causada por seu trabalho.

“O estresse relacionado ao trabalho é o único, exclusivo e inquestionável desencadeador” dos distúrbios, diz a decisão, que pode ser objeto de recurso. Feliu tem outros 25 trabalhadores que estão esperando que sua doença seja reconhecida como um acidente de trabalho e, em outubro, ele também entrou com uma queixa criminal contra a empresa, denunciando a falta de medidas de segurança.

O trabalhador pede anonimato, pois está sujeito a rígidos contratos de confidencialidade, e prefere não falar sobre como se sente ou sobre questões muito pessoais, pois as cicatrizes deixadas por esse trabalho ainda estão abertas: ele está tendo dificuldades com a cobertura jornalística da sentença, pois o fazem reviver o que viu. “Mas pelo menos isso está incentivando mais pessoas a buscarem a justiça”, diz ele.

Quando começou a trabalhar na empresa, ele não tinha ideia da violência dos vídeos que teria de assistir. “Eles me contaram, mas superficialmente, e então quando você começa, vê que as coisas são muito, muito piores…”, diz ele.

O advogado explica que o trabalho é bem remunerado (cerca de 2.400 euros brutos por mês, embora haja diferenças salariais entre os trabalhadores encarregados de diferentes mercados, algo que outro escritório também levou ao tribunal), que não é necessária nenhuma experiência ou treinamento e que os jovens estrangeiros são atraídos por ele: “Eles dizem ‘olha, que legal, vou trabalhar para a Meta'”, explica Feliu.

O trabalhador afetado ressalta que as ilusões logo desaparecem: “As pessoas não estão nem um pouco cientes do que está acontecendo. Antes de trabalhar lá, eu lhe garanto que não sabia do que os seres humanos eram capazes”.

Feliu explica que naquela época – “as condições podem ter mudado agora”, ressalta – os moderadores de conteúdo que obtinham a melhor pontuação por sua eficiência (havia uma avaliação mensal dos funcionários) eram colocados em uma seção de alta prioridade.

Ou seja, eles ainda recebiam vídeos de todos os tipos em um canal (postagens normais, mas também vídeos violentos, quando apareciam) e em outro recebiam exclusivamente conteúdo (vídeos, fotos ou postagens) em que eram apresentados suicídios e atos terroristas.

“Ver isso constantemente faz com que você fique mais sensível a tudo. Depois de um tempo, eu não conseguia nem ver uma carta de suicídio”, explica ele. A política do Meta tinha de ser rigorosamente seguida e, muitas vezes, os vídeos tinham de ser assistidos até o fim, várias vezes e por diferentes moderadores.

“Por exemplo, um vídeo ao vivo de alguém explicando que queria cometer suicídio, você tinha que continuar assistindo e não podia excluí-lo ou notificar a polícia, a menos que visse algo na cena que sugerisse suicídio, uma arma, uma janela aberta…. Às vezes, a pessoa sacava a arma de repente e atirava em si mesma, sem que você pudesse fazer nada”, lamenta.

Para remover um vídeo, eles tinham que explicitar a decisão: “Você tinha que classificar o vídeo de acordo com a pior coisa que aconteceu, segundo uma escala. Se o vídeo começasse com algum tipo de violência, você tinha que esperar por algo mais grave, como assassinato, desmembramento ou abuso sexual, para classificá-lo de acordo com o mais grave. Se a violência mais grave aparecesse no início, o sistema permitiria que você o excluísse”.

Esse procedimento os deixou desconfiados. “Se no décimo segundo você vê que algo é violento, por que precisa esperar? Você chega à conclusão de que o que eles estão fazendo é treinar uma inteligência artificial (IA), eles são bucha de canhão”, diz Feliu. Um porta-voz da subcontratada, questionado sobre isso, não esclarece se esse projeto existe e se refere à Meta.

A empresa emprega cerca de 2.000 pessoas, depois que cortes na Meta fizeram com que a força de trabalho da subcontratada fosse reduzida com um programa de demissão no ano passado. O conselho de trabalhadores não respondeu às perguntas deste jornal, e a empresa recorreu da decisão.

Em um comunicado, a Telus explica que, “graças ao programa abrangente de bem-estar”, em dezembro do ano passado, as licenças médicas foram reduzidas para 14% da força de trabalho e que apenas “entre 1% e 2%” eram licenças de saúde mental relacionadas ao trabalho.

A empresa explica que contratou suporte médico externo, que a equipe tem uma gama de conselheiros disponíveis 24 horas por dia, que pode solicitar pausas e sessões de emergência sempre que vir conteúdo perturbador e que tem tecnologia para desfocar vídeos ou desligar o som, se necessário.

“Qualquer sugestão de que os funcionários são constantemente expostos a conteúdo perturbador durante oito horas por dia é falsa”, disse a declaração, acrescentando que o bem-estar de seus funcionários é uma prioridade.

No tribunal, a empresa negou que houvesse uma ligação entre sua doença mental e seu trabalho, argumentando que ele havia consultado um psicólogo quando tinha 16 anos de idade.

O funcionário explica que, na época em que estava trabalhando, havia um intervalo de cinco minutos cronometrados a cada hora, durante o qual ele não podia sair para tomar ar fresco porque só o fato de descer no elevador já consumia o tempo.

O intervalo para o almoço era de 20 minutos, e havia atividades como sessões de ioga e jogos, “mas nenhum acompanhamento específico” para os funcionários que avaliavam cerca de 400 conteúdos todos os dias.

Além disso, os horários rotativos – uma semana pela manhã, outra semana à tarde, outra semana à noite – atrapalhavam o descanso, “que já era difícil por causa dos pesadelos”. “Havia 25% de pessoas sistematicamente em licença médica, somando-se a isso todos os que deixaram o emprego antes de entrar em licença médica”, lembra Feliu, que acredita que a decisão judicial e as próximas ajudarão a empresa a mudar as coisas: “Os moderadores de conteúdo são essenciais para as redes sociais, mas suas condições também são.

Fonte: O Globo

Clique aqui e acesse o texto original.

Data da publicação original: 25/01/2024

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Translate »