Viagem aos porões da Inteligência Artificial
Uma legião de precarizados ensina a IA das Big Techs a eliminar conteúdo abjeto das redes sociais. Convivem com o trauma e insalubridade, no Sul Global. Ganham pouquíssimo. Não podem organizar-se. Seu mundo permanece oculto
Por Adio Dinika
Por Adio Dinika, no Noema | Tradução: Glauco Faria
Uma tela embaçada aparece diante de nossos olhos, acompanhada de uma mensagem enganosamente inócua de “conteúdo sensível” com um emoji de olho riscado. O design suave e o ícone lúdico do aviso desmentem a gravidade do que está por trás. Com um movimento casual de nossos dedos, passamos por ele, nossos feeds são atualizados com vídeos de gatos e fotos de férias. Mas nas sombras de nossa utopia digital, uma realidade diferente se desenrola.
Em armazéns apertados e mal iluminados em todo o mundo, um exército de trabalhadores invisíveis se debruça sobre telas que piscam. Seus olhos se esforçam, com os dedos pairando sobre os teclados, enquanto confrontam os impulsos mais obscuros da humanidade – alguns mais obscuros do que seus pesadelos mais loucos. Eles não conseguem desviar o olhar. Não podem rolar a tela. Para esses trabalhadores, não há aviso de gatilho.
Os gigantes da tecnologia alardeiam o poder da IA na moderação de conteúdo, pintando imagens de algoritmos oniscientes que mantêm nossos espaços digitais seguros. Eles sugerem uma visão utópica de máquinas que vasculham incansavelmente os detritos digitais, protegendo-nos do pior da Web.
Mas essa é uma mentira reconfortante.
A realidade é muito mais humana e muito mais preocupante. Essa narrativa serve a vários propósitos: ameniza as preocupações dos usuários com relação à segurança on-line, justifica os enormes lucros que essas empresas obtêm e desvia a responsabilidade – afinal, como você pode culpar um algoritmo?
No entanto, os sistemas de IA atuais não são nem de longe capazes de entender as nuances da comunicação humana, muito menos de fazer julgamentos éticos complexos sobre o conteúdo. O sarcasmo, o contexto cultural e as formas sutis de discurso de ódio muitas vezes passam despercebidos até mesmo pelos algoritmos mais sofisticados.
E, embora a moderação automatizada de conteúdo possa, até certo ponto, ser implementada para idiomas mais comuns, o conteúdo em idiomas com poucos recursos normalmente exige o recrutamento de moderadores de conteúdo dos países em que o idioma é falado, devido às suas habilidades linguísticas.
Por trás de quase todas as decisões de IA, um ser humano tem a tarefa de fazer a chamada final e arcar com o ônus do julgamento – não um salvador baseado em silício. A IA geralmente é um primeiro filtro bruto. Veja as lojas supostamente automatizadas da Amazon, por exemplo: Foi relatado pelo The Information que, em vez de sistemas avançados de IA, a Amazon contava com cerca de 1.000 funcionários, principalmente na Índia, para rastrear manualmente os clientes e registrar suas compras.
A Amazon disse à AP e a outros que contratou trabalhadores para assistir a vídeos para validar as pessoas que faziam compras, mas negou que tivesse contratado 1.000 pessoas ou a implicação de que os trabalhadores monitoravam os compradores ao vivo. Da mesma forma, o assistente M “alimentado por IA” do Facebook é mais humano do que software. E assim, a ilusão da capacidade da IA é frequentemente mantida à custa de trabalho humano oculto.
“Éramos os zeladores da Internet”, disse-me Botlhokwa Ranta, 29 anos, uma ex-moderadora de conteúdo da África do Sul que agora mora em Nairóbi, no Quênia, dois anos depois que seu contrato com a Sama foi rescindido. Falando de sua casa, sua voz estava pesada quando ela continuou. “Nós limpamos a bagunça para que todos os outros possam desfrutar de um mundo on-line higienizado.”
E assim, enquanto dormimos, muitos trabalham. Enquanto compartilhamos, esses trabalhadores protegem. Enquanto nos conectamos, eles enfrentam a desconexão entre nossa experiência on-line com curadoria e a realidade da natureza humana crua e sem filtros.
O verniz brilhante do setor de tecnologia esconde uma realidade humana crua que se estende por todo o mundo. Dos arredores de Nairóbi aos apartamentos lotados de Manila, das comunidades de refugiados sírios no Líbano às comunidades de imigrantes na Alemanha e aos call centers de Casablanca, uma vasta rede de trabalhadores invisíveis alimenta nosso mundo digital. As histórias desses trabalhadores geralmente são uma tapeçaria de trauma, exploração e resiliência, que revelam o verdadeiro custo de nosso futuro impulsionado pela IA.
Podemos ficar maravilhados com os chatbots e os sistemas automatizados que Sam Altman e sua turma exaltam, mas isso esconde as questões urgentes que estão abaixo da superfície: Será que nossos sistemas de IA divinos servirão apenas como uma cortina de fumaça, ocultando uma realidade humana angustiante?
Em nossa busca incessante pelo avanço tecnológico, devemos nos perguntar: qual é o preço que estamos dispostos a pagar por nossa conveniência digital? E nessa corrida rumo a um futuro automatizado, será que estamos deixando nossa humanidade na poeira?
A história de Abrha
Em fevereiro de 2021, o mundo de Abrha se despedaçou quando sua cidade em Tigray ficou sob fogo das forças de defesa da Etiópia e da Eritreia no conflito de Tigray, o conflito mais mortal dos dias atuais, que foi corretamente chamado de genocídio, de acordo com um relatório do New Lines Institute, com sede nos EUA.
Com apenas uma pequena mochila e todo o dinheiro que conseguiu pegar, Abrha, então com 26 anos, fugiu para Nairóbi, no Quênia, deixando para trás um negócio próspero, uma família e amigos que não conseguiram escapar. Enquanto Tigray sofria com ofechamento da internet por mais de dois anos imposto pelo governo da Etiópia, ele passou meses em uma agonizante incerteza sobre o destino de sua família.
Então, em uma cruel ironia, Abrha foi recrutado pela filial queniana da Sama, uma empresa sediada em São Francisco que se apresenta como um provedor ético de dados de treinamento de IA, porque a empresa precisava de pessoas fluentes em tigrínia e amárico, idiomas do conflito do qual ele acabara de fugir, para moderar o conteúdo originado principalmente desse mesmo conflito.
Cinco dias por semana, oito horas por dia, Abrha ficava sentado no depósito da Sama em Nairóbi, moderando conteúdo do mesmo conflito do qual ele havia escapado – às vezes até mesmo um bombardeio em sua cidade natal. Cada dia trazia uma enxurrada de discursos de ódio dirigidos aos Tigrayans e o medo de que o próximo cadáver fosse o de seu pai, a próxima vítima de estupro fosse sua irmã.
Um dilema ético também pesava sobre ele: Como ele poderia permanecer neutro em um conflito em que ele e seu povo eram as vítimas? Como ele poderia rotular o conteúdo de retaliação gerado por seu povo como discurso de ódio? A pressão se tornou insuportável.
Embora Abrha detestasse fumar, ele se tornou um fumante inveterado que sempre tinha um cigarro na mão enquanto navegava nesse campo minado digital de trauma – cada tragada era uma tentativa inútil de aliviar a dor do sofrimento de seu povo.
O horror de seu trabalho atingiu um pico devastador quando Abrha se deparou com o corpo de seu primo enquanto moderava o conteúdo. Foi um lembrete brutal dos riscos muito reais e pessoais do conflito que ele estava sendo forçado a testemunhar diariamente por meio de uma tela de computador.
Depois que ele e outros moderadores de conteúdo tiveram seus contratos rescindidos pela Sama, Abrha se viu em uma situação terrível. Incapaz de conseguir outro emprego em Nairóbi, ele teve que lidar com seu trauma sozinho, sem o apoio ou os recursos de que precisava desesperadamente. O peso de suas experiências como moderador de conteúdo, juntamente com os efeitos persistentes da fuga do conflito, afetou muito sua saúde mental e sua estabilidade financeira.
Apesar de a situação em Tigray continuar precária após a guerra, Abrha sentiu que não tinha outra opção a não ser voltar para sua terra natal. Ele fez a difícil jornada de volta há alguns meses, na esperança de reconstruir sua vida a partir das cinzas do conflito e da exploração. Sua história serve como um forte lembrete do impacto duradouro do trabalho de moderação de conteúdo e da vulnerabilidade daqueles que o realizam, muitas vezes longe de casa e dos sistemas de apoio.
A realidade de pesadelo de Kings
Tendo crescido em Kibera, uma das maiores favelas do mundo, Kings, 34 anos, que insistiu que Noema usasse apenas seu primeiro nome para discutir livremente assuntos pessoais de saúde, sonhava com uma vida melhor para sua jovem família. Como muitos jovens criados na favela de Nairóbi, ele estava desempregado.
Quando a Sama o chamou, Kings viu nisso a sua chance de entrar no mundo da tecnologia. Começando como anotador de dados, que os rotulava e os categorizava para treinar sistemas de IA, ele ficou entusiasmado, apesar do salário baixo. Quando a empresa ofereceu promovê-lo a moderador de conteúdo com um pequeno aumento de salário, ele aproveitou a oportunidade, sem saber das implicações da decisão.
Kings logo se viu confrontado com um conteúdo que o assombrava dia e noite. O pior era o que eles codificavam como CSAM, ou material de abuso sexual infantil. Dia após dia, ele examinava textos, fotos e vídeos que retratavam vividamente a violação de crianças. “Vi vídeos de vaginas de crianças se rasgando por causa do abuso”, contou ele, com a voz vazia. “Toda vez que eu fechava os olhos em casa, era só isso que eu via.”
O trauma infectou todos os aspectos da vida de Kings. Aos 32 anos, ele tinha dificuldade de ter intimidade com sua esposa; imagens de crianças abusadas atormentavam sua mente. O suporte à saúde mental da empresa era extremamente inadequado, disse Kings. Os conselheiros pareciam não estar preparados para lidar com a profundidade de seu trauma.
Por fim, a tensão se tornou excessiva. A esposa de Kings, incapaz de lidar com a privação sexual e as mudanças em seu comportamento, o deixou. Quando Kings deixou a Sama, ele era uma casca de seu antigo eu – quebrado mental e financeiramente – e seus sonhos de uma vida melhor foram destruídos por um trabalho que ele achava que seria sua salvação.
Perdendo a fé na humanidade
A história de Ranta começa na pequena cidade sul-africana de Diepkloof, onde a vida se move em ciclos previsíveis. Mãe aos 21 anos, ela tinha 27 quando conversamos e refletiu sobre a dura realidade enfrentada por muitas mulheres jovens em sua comunidade: seis em cada dez meninas já tinham engravidado aos 21 anos, entrando em um mundo onde as perspectivas de emprego já são escassas e a maternidade solteira as torna ainda mais esquivas.
Quando a Sama começou a recrutar, prometendo uma vida melhor para ela e seu filho, Ranta viu isso como sua passagem para um futuro melhor. Ela se candidatou e logo se viu em Nairóbi, longe de tudo o que lhe era familiar. As promessas se desfizeram rapidamente após sua chegada. O apoio para reencontrar seu filho, que ela havia deixado na África do Sul, nunca se concretizou como prometido.
Quando ela perguntou sobre isso, os representantes da empresa lhe disseram que não poderiam mais cobrir o custo total, como prometido inicialmente, e ofereceram apenas um apoio parcial, a ser deduzido de seu salário. As tentativas de conseguir uma audiência oficial com a Sama não tiveram êxito, e fontes não oficiais citaram como motivo os processos judiciais em andamento com os trabalhadores.
Quando a irmã de Ranta faleceu, ela disse que seu chefe lhe deu alguns dias de folga, mas não a deixou mudar para fluxos de conteúdo menos traumáticos quando ela voltou a moderar o conteúdo, mesmo havendo uma vaga. Era como se esperassem que ela e outros funcionários operassem como máquinas, capazes de desligar um programa e iniciar outro à vontade.
As coisas chegaram a um ponto crítico durante uma gravidez complicada. Ela não teve permissão para ficar em repouso na cama, conforme ordenado por seu médico, e apenas quatro meses depois de dar à luz sua segunda filha, a criança foi hospitalizada.
Ela então ficou sabendo que a empresa havia parado de fazer contribuições para o plano de saúde logo depois que ela começou a trabalhar, apesar de ter continuado a deduzir o valor de seu salário. Agora, ela estava sobrecarregada, com contas que não tinha condições de pagar.
A função de Ranta envolvia a moderação de conteúdo relacionado a abuso sexual feminino, xenofobia, discurso de ódio, racismo e violência doméstica, principalmente de sua terra natal, a África do Sul e a Nigéria. Embora reconhecesse a importância de seu trabalho, ela lamentava a falta de aconselhamento psicológico, treinamento e apoio adequados.
Ranta se viu perdendo a fé na humanidade. “Vi coisas que nunca pensei que fossem possíveis”, ela me disse. “Como os seres humanos podem afirmar que são a espécie inteligente depois do que vi?”
O CEO da Sama expressou arrependimento por ter assinado o contrato de moderação de conteúdo com a Meta.
O representante também disse que a companhia oferecia “’soluções técnicas para limitar ao máximo a exposição a material gráfico”. No entanto, as experiências compartilhadas por trabalhadores como Abrha, Kings e Ranta pintam um quadro totalmente diferente, sugerindo uma lacuna significativa entre as políticas declaradas da Meta e as realidades vividas pelos moderadores de conteúdo.
Perspectivas globais: Lutas semelhantes entre fronteiras
As experiências de Abrha, Kings e Ranta não são incidentes isolados. Somente no Quênia, conversei com mais de 20 trabalhadores que compartilharam histórias semelhantes. Em todo o mundo, em países como Alemanha, Venezuela, Colômbia, Síria e Líbano, os trabalhadores de dados com quem conversamos como parte de nosso projeto Data Workers Inquiry nos disseram que enfrentaram desafios semelhantes.
Na Alemanha, apesar de todos os seus programas para ajudar os recém-chegados, os imigrantes com status incerto ainda acabam em funções como a de Abrha, revisando o conteúdo de seus países de origem. A situação precária dos vistos desses trabalhadores acrescentou uma camada de vulnerabilidade. Muitos nos disseram que, apesar de enfrentarem a exploração, sentiam-se incapazes de se manifestar publicamente. Como o emprego deles está vinculado ao visto, há o risco de serem demitidos e deportados.
Na Venezuela e na Colômbia, a instabilidade econômica leva muitos a procurar trabalho no setor de dados. Embora nem sempre estejam diretamente envolvidos na moderação de conteúdo, muitos anotadores de dados costumam trabalhar com conjuntos de dados desafiadores que podem afetar negativamente seu bem-estar mental.
A realidade geralmente não corresponde ao que foi anunciado. Mesmo que os trabalhadores de dados na Síria e os refugiados sírios no Líbano não estejam moderando o conteúdo, o trabalho deles muitas vezes se cruza com resquícios digitais do conflito que vivenciaram ou do qual fugiram, acrescentando uma camada de tensão emocional aos seus trabalhos já exigentes.
O uso generalizado de acordos de não divulgação (NDAs) é mais uma camada na dinâmica de poder desigual que envolve esses indivíduos vulneráveis. Esses acordos, exigidos como parte dos contratos de trabalho dos trabalhadores, silenciam os trabalhadores e mantêm suas lutas ocultas da opinião pública.
A ameaça implícita desses NDAs geralmente se estende além do período de emprego, lançando uma longa sombra sobre a vida dos trabalhadores mesmo depois que eles deixam seus empregos. Muitos trabalhadores que falaram conosco insistiram no anonimato por medo de repercussões legais.
Esses trabalhadores, em lugares como Bogotá, Berlim, Caracas e Damasco, relataram que se sentiam abandonados pelas empresas que lucravam com seu trabalho. Os chamados “programas de bem-estar” oferecidos pela Sama muitas vezes não estavam preparados para lidar com o trauma profundo que esses trabalhadores estavam sofrendo, disseram-me os funcionários.
Suas histórias deixam claro que, por trás da fachada elegante de nosso mundo digital, há uma força de trabalho oculta que carrega fardos emocionais imensos, para que não precisemos fazer isso. Suas experiências levantam questões urgentes sobre as implicações éticas do trabalho com dados e o custo humano da manutenção de nossa infraestrutura digital. A natureza global desse problema ressalta uma verdade preocupante: a exploração dos trabalhadores de dados não é um bug, é uma característica sistêmica do setor.
É uma teia global de luta, tecida pelos gigantes da tecnologia e mantida pelo silêncio daqueles que estão presos nela, conforme documentado por Mophat Okinyi e Richard Mathenge, ex-moderadores de conteúdo e agora co-pesquisadores em nosso projeto Data Workers’ Inquiry. Os dois viram esses padrões se repetirem em uma série de empresas diferentes em vários países. Suas experiências, tanto como trabalhadores quanto agora como defensores, ressaltam a natureza global dessa exploração.
O trauma por trás da tela
Antes de viajar para o Quênia, eu achava que entendia os desafios enfrentados pelos profissionais de dados por meio de minhas conversas on-line com alguns deles. Entretanto, ao chegar, me deparei com histórias de depravação individual e institucional que me deixaram com traumas secundários e pesadelos por semanas. Mas para os próprios trabalhadores de dados, o trauma se manifesta de duas formas principais: trauma direto do próprio trabalho e problemas sistêmicos que agravam o trauma.
1. Trauma direto
Todos os dias, os moderadores de conteúdo são forçados a enfrentar os cantos mais obscuros da humanidade. Eles atravessam um pântano tóxico de violência, discurso de ódio, abuso sexual e imagens gráficas.
Essa exposição constante a conteúdo perturbador cobra seu preço. “Isso vai além do que torna as pessoas humanas”, disse-me Kings. “É como ser forçado a beber veneno todos os dias, sabendo que está matando você, mas não pode parar porque é o seu trabalho.” As imagens e os vídeos permanecem depois do trabalho, assombrando seus sonhos e se infiltrando em suas vidas pessoais.
Muitos moderadores relatam sintomas de estresse pós-traumático e trauma vicário: pesadelos, flashbacks e ansiedade grave são comuns. Alguns desenvolvem uma desconfiança profunda em relação ao mundo ao seu redor, mudada para sempre pela exposição constante à crueldade humana. Como um funcionário me disse: “Entrei nesse trabalho acreditando na bondade básica das pessoas. Agora, não tenho mais certeza se acredito em alguma coisa. Se as pessoas podem fazer isso, então o que há para acreditar?”
Quando o turno termina, o trauma segue esses trabalhadores para casa. Para Kings e Okinyi, como para tantos outros, seus relacionamentos desmoronaram sob o peso do que eles viram, mas não puderam falar. Os filhos crescem com pais emocionalmente distantes, os parceiros se afastam e o trabalhador fica isolado em sua dor.
Muitos moderadores relatam uma mudança fundamental em sua visão de mundo. Eles se tornam hipervigilantes, vendo ameaças em potencial em toda parte. Okinyi mencionou como um de seus ex-colegas teve de se mudar da cidade para a zona rural, menos movimentada, devido à paranoia de possíveis explosões de violência. Em um zine que ela criou para o Data Workers Inquiry sobre as moderadoras de conteúdo da Sama, uma das entrevistadas de Ranta falou sobre como o trabalho a fazia questionar constantemente seu valor e sua capacidade de ser mãe de seus filhos.
2. Problemas sistêmicos
Além do trauma imediato do conteúdo em si, os moderadores enfrentam uma enxurrada de problemas sistêmicos que exacerbam seu sofrimento:
- Insegurança no emprego: Muitos moderadores, especialmente aqueles em situações de vida precárias, como refugiados ou migrantes econômicos, vivem com medo constante de perder seus empregos. Esse medo geralmente os impede de falar sobre suas condições de trabalho ou de buscar ajuda. As empresas geralmente exploram essa vulnerabilidade.
- Falta de apoio à saúde mental: Embora as empresas divulguem seus programas de bem-estar, a realidade fica muito aquém. Como Kings experimentou, o aconselhamento fornecido geralmente é inadequado, com terapeutas mal equipados para lidar com o trauma exclusivo da moderação de conteúdo. As sessões geralmente são breves e não tratam de traumas mais subjacentes e profundos.
- Métricas de desempenho irrealistas: Os moderadores geralmente precisam revisar centenas de peças de conteúdo por hora. Esse ritmo incessante não deixa tempo para processar o material perturbador que viram, forçando-os a reprimir suas emoções. O foco na quantidade em detrimento da qualidade não afeta apenas a precisão da moderação, mas também exacerba o ônus psicológico do trabalho. Como Abrha me disse: “Imagine ter que assistir a um vídeo de alguém sendo morto e depois passar imediatamente para a próxima publicação. Não há tempo para respirar, muito menos para processar o que vimos.”
- Vigilância constante: Como se o conteúdo em si não fosse estressante o suficiente, os moderadores são constantemente monitorados. Praticamente todas as decisões e, essencialmente, todos os segundos de seu turno são examinados, acrescentando mais uma camada de pressão a um trabalho que já é desgastante. Essa vigilância se estende aos intervalos para ir ao banheiro, ao tempo ocioso entre as tarefas e até mesmo às expressões faciais durante a revisão do conteúdo. Os supervisores monitoram os funcionários por meio de software de rastreamento de computador, câmeras e, em alguns casos, observação física. Eles tendem a prestar atenção nas expressões faciais para avaliar as reações dos funcionários e garantir que eles mantenham um nível de distanciamento ou “profissionalismo” enquanto analisam o conteúdo perturbador. Como resultado, os trabalhadores me disseram que sentiam que não conseguiam nem reagir naturalmente ao conteúdo perturbador que estavam vendo. Os funcionários recebiam uma hora de intervalo por dia para todas as suas necessidades externas (comer, alongar-se, ir ao banheiro). Qualquer tempo adicional dedicado a essas ou outras atividades não relacionadas ao trabalho seria examinado e o tempo seria acrescentado aos seus turnos. Abrha também mencionou que os trabalhadores tinham que colocar seus telefones em armários, isolando-os ainda mais e limitando sua capacidade de se comunicar com o mundo exterior durante seus turnos.
E as repercussões vão além da família: Os amigos se afastam, incapazes de se relacionar com a nova e sombria perspectiva de vida do moderador; as interações sociais se tornam tensas, pois os funcionários lutam para participar de conversas “normais” depois de passar seus dias imersos no pior do comportamento humano.
Em essência, o trauma da moderação de conteúdo remodela toda a dinâmica familiar e as redes sociais, criando um ciclo de isolamento e sofrimento que se estende muito além do indivíduo.
Traumatizando Humanos para Criar Sistemas “Inteligentes”
Talvez a ironia mais cruel seja que estamos traumatizando as pessoas para criar a ilusão de inteligência mecânica. O trauma infligido aos moderadores humanos é justificado pela promessa de futuros sistemas de IA que não exigirão intervenção humana. No entanto, o seu desenvolvimento exige mais trabalho humano e muitas vezes o sacrifício da saúde mental dos trabalhadores.
Além disso, o foco no desenvolvimento da IA desvia frequentemente recursos e atenção da melhoria das condições dos trabalhadores humanos. As empresas investem bilhões em algoritmos de aprendizado de máquina enquanto negligenciam as necessidades básicas de saúde mental de seus moderadores humanos.
A ilusão da IA distancia os usuários da realidade da moderação de conteúdo, assim como a pecuária industrial nos distancia do tratamento de galinhas poedeiras. Esta ignorância voluntária e coletiva permite que a exploração continue sem controle. A narrativa da IA é uma cortina de fumaça que obscurece uma prática trabalhista profundamente antiética que troca o bem-estar humano por uma fachada de progresso tecnológico.
Trabalhadores digitais do mundo, levantem-se!
Perante a exploração e o trauma, os trabalhadores de dados não têm sido passivos. Em todo o mundo, têm tentado sindicalizar-se, mas os seus esforços têm sido frequentemente dificultados por vários intervenientes. No Quênia, os trabalhadores formaram o Sindicato Africano de Moderadores de Conteúdo, um esforço ambicioso para unir trabalhadores de diferentes países africanos.
Mathenge, que também faz parte da liderança do sindicato, disse-me que acredita ter sido demitido do seu papel de líder de equipe devido às suas atividades sindicais. Esta retaliação enviou uma mensagem assustadora a outros trabalhadores que consideravam se organizar.
A luta pelos direitos dos trabalhadores ganhou recentemente uma força jurídica significativa. Em 20 de janeiro, um tribunal queniano decidiu que a Meta poderia ser processada no país por demitir dezenas de moderadores de conteúdo por meio de sua contratada, Sama. O tribunal manteve decisões anteriores de que a Meta poderia ser julgada por estas demissões e poderia ser processada no Quênia por possíveis más condições de trabalho.
A última decisão tem implicações potencialmente de longo alcance na forma como a gigante da tecnologia trabalha com os seus moderadores de conteúdo em todo o mundo. Também marca um avanço significativo na batalha contínua pelo tratamento justo e pelo reconhecimento dos direitos dos trabalhadores de dados.
Os obstáculos continuam além do nível da empresa. As organizações empregam táticas de combate aos sindicatos, muitas vezes despedindo trabalhadores que fazem campanha pela sindicalização, disse Mathenge. Durante conversas com trabalhadores, jornalistas e representantes da sociedade civil no espaço de trabalho digital queniano, surgiram rumores de altos funcionários do governo exigindo subornos para registar formalmente o sindicato, acrescentando outra camada de complexidade ao processo de sindicalização.
Talvez o mais bizarro, de acordo com um funcionário da organização cívica liderada por jovens Siasa Place, quando os trabalhadores no Quênia tentaram formar seu próprio sindicato, eles foram instruídos a se juntar ao sindicato dos correios e telecomunicações, uma sugestão que ignora as grandes diferenças entre essas indústrias e os desafios únicos enfrentados pelos trabalhadores de dados de hoje.
Apesar desses contratempos, os trabalhadores continuaram a encontrar maneiras inovadoras de se organizar e defender seus direitos. Okinyi, junto com Mathenge e Kings, formaram a Techworker Community Africa, uma organização não governamental focada em fazer lobby contra práticas tecnológicas prejudiciais, como exploração de mão de obra.
Outras organizações também se apresentaram para ajudar os trabalhadores, como a Siasa Place, e advogados de direitos digitais como Mercy Mutemi fizeram uma petição ao parlamento queniano para investigar as condições de trabalho em empresas de IA.
Um caminho para IA ética e práticas trabalhistas justas
Protocolos de saúde mental em todo o setor
Precisamos de uma abordagem abrangente e em todo o setor para suporte à saúde mental. Com base em minha pesquisa e conversas com trabalhadores, proponho uma abordagem multifacetada não oferecida pelos sistemas de suporte existentes.
Muitos programas empresariais existentes são frequentemente “programas de bem-estar” superficiais que não abordam o trauma profundo vivenciado pelos trabalhadores de dados. Eles podem incluir sessões ocasionais em grupo ou acesso a serviços gerais de aconselhamento, mas geralmente são insuficientes e não personalizados.
Minha abordagem proposta inclui sessões obrigatórias e regulares de aconselhamento com terapeutas treinados especificamente em traumas relacionados ao trabalho de dados. Além disso, as empresas devem implementar check-ins regulares de saúde mental, fornecer acesso a suporte de crise 24 horas por dia, 7 dias por semana, e oferecer serviços de terapia de longo prazo, que estão amplamente ausentes nas configurações atuais.
Fundamentalmente, esses serviços devem ser culturalmente competentes, reconhecendo as diversas origens dos trabalhadores de dados globalmente. Este é um afastamento significativo da abordagem atual de tamanho único que muitas vezes deixa de considerar os contextos culturais dos trabalhadores em lugares como Nairóbi, Manila ou Bogotá. O sistema proposto ofereceria suporte nos idiomas nativos dos trabalhadores e seria sensível às nuances culturais que cercam a saúde mental — aspectos extremamente ausentes em muitos programas existentes.
Além disso, diferentemente do sistema atual, onde o suporte à saúde mental geralmente termina com o emprego, esta nova abordagem estenderia o suporte além da permanência no trabalho, reconhecendo os impactos duradouros deste tipo de ocupação. Esta abordagem abrangente, de longo prazo e culturalmente sensível, representa uma mudança fundamental do suporte simbólico e muitas vezes ineficaz à saúde mental oferecido aos trabalhadores de dados atualmente.
Implementação do “Trauma Cap”
Assim como temos limites de exposição à radiação para trabalhadores nucleares, precisamos de limites de exposição ao trauma para trabalhadores de dados. Este “trauma cap” estabeleceria limites rígidos sobre a quantidade e o tipo de conteúdo perturbador ao qual um trabalhador pode ser exposto dentro de um determinado período de tempo.
A implementação poderia envolver a rotação de trabalhadores entre conteúdo de alto e baixo impacto, pausas obrigatórias após exposição a material particularmente traumático, limites em dias consecutivos de trabalho com conteúdo perturbador e a alocação de “licença para trauma” anual para recuperação da saúde mental.
Precisamos de um sistema que rastreie não apenas a quantidade de conteúdo revisado, mas um que leve em conta o impacto emocional. Por exemplo, um vídeo de violência extrema deve contar mais para o limite de um trabalhador do que uma postagem de spam.
Órgão de supervisão independente
A autorregulamentação por empresas de tecnologia provou ser insuficiente; é essencialmente confiar o galinheiro a um chacal. Precisamos de um órgão independente com o poder de auditar, aplicar padrões e impor penalidades quando necessário.
Este órgão de supervisão deve consistir em especialistas em ética, ex-trabalhadores de dados, profissionais de saúde mental e especialistas em direitos humanos. Ele deve ter autoridade para conduzir inspeções não anunciadas de instalações de trabalho de dados, definir e aplicar padrões de toda a indústria para condições de trabalho e suporte de saúde mental, e fornecer um canal seguro para os trabalhadores relatarem violações sem medo de retaliação. Fundamentalmente, qualquer órgão de supervisão deve incluir as vozes de atuais e ex-trabalhadores de dados que realmente entendam os desafios desse trabalho.
O papel dos consumidores e do público na demanda por mudanças
Embora as reformas do setor e a supervisão regulatória sejam cruciais, o poder da pressão pública não pode ser exagerado. Como consumidores de conteúdo digital e participantes de espaços online, todos nós temos um papel a desempenhar na demanda por práticas mais éticas. Isso envolve consumo informado, educando-nos sobre o custo humano por trás da moderação de conteúdo.
Antes de compartilhar conteúdo, especialmente material potencialmente perturbador, devemos considerar o moderador que pode ter que revisá-lo. Essa conscientização pode influenciar nossas decisões sobre o que postamos ou compartilhamos. Devemos exigir transparência das empresas de tecnologia sobre suas práticas de moderação de conteúdo.
Podemos usar as próprias plataformas das empresas para responsabilizá-las, fazendo perguntas públicas sobre as condições dos trabalhadores e o suporte à saúde mental. Devemos apoiar as empresas que priorizam práticas trabalhistas éticas e considerar boicotar aquelas que não o fazem.
Além disso, à medida que as ferramentas de IA se tornam cada vez mais prevalentes em nosso cenário digital, também devemos nos educar sobre os custos ocultos por trás dessas tecnologias aparentemente milagrosas. Ferramentas como ChatGPT e DALL-E são o produto de imenso trabalho humano e compromissos éticos.
Esses sistemas de IA são construídos nas costas de inúmeros indivíduos invisíveis: moderadores de conteúdo expostos a material traumático, rotuladores de dados trabalhando longas horas por baixos salários e artistas cujos trabalhos criativos foram explorados sem consentimento ou compensação. Além do custo humano impressionante, o pedágio ambiental dessas tecnologias é alarmante e frequentemente esquecido.
Do consumo massivo de energia dos data centers às montanhas de lixo eletrônico geradas, a pegada ecológica da IA é uma questão crítica que exige nossa atenção e ação imediatas. Ao entender essas realidades, podemos fazer escolhas mais informadas sobre as ferramentas de IA que usamos e defender uma compensação justa e o reconhecimento do trabalho humano que as torna possíveis.
A ação política é igualmente importante. Precisamos defender uma legislação que proteja os trabalhadores de dados, instar nossos representantes políticos a regular a indústria de tecnologia e apoiar candidatos políticos que priorizem a ética digital e práticas trabalhistas justas.
É crucial espalhar a conscientização sobre as realidades do trabalho de dados por meio do uso de nossas plataformas para que possamos informar as pessoas sobre as histórias de pessoas como Abrha, Kings e Ranta e encorajar discussões sobre as implicações éticas do nosso consumo digital.
Podemos acompanhar e apoiar organizações como a African Content Moderators Union e ONGs focadas em direitos trabalhistas digitais e amplificar as vozes dos trabalhadores de dados falando sobre suas experiências para ajudar a trazer mudanças significativas.
A maioria das pessoas não tem ideia do que acontece por trás de seus feeds de mídia social higienizados e das ferramentas de IA que usam diariamente. Se soubessem, acredito que exigiriam mudanças. O apoio público é necessário para garantir que as vozes dos trabalhadores de dados sejam ouvidas.
Ao implementar essas soluções e aproveitar o poder da demanda pública, podemos trabalhar em direção a um futuro em que o mundo digital que desfrutamos não venha às custas da dignidade humana e da saúde mental. É um caminho desafiador, mas que devemos percorrer se quisermos criar um ecossistema digital verdadeiramente ético.
Este artigo é baseado em entrevistas conduzidas com trabalhadores de dados do Quênia, Síria, Líbano, Alemanha, Colômbia, Venezuela e Brasil como parte do projeto Data Workers Inquiry, um projeto de pesquisa de ação comunitária nascido de uma colaboração entre o Distributed Artificial Intelligence Research Institute e o Weizenbaum Institute.
Fonte: Outras Palavras
Clique aqui para ler o texto original.
Publicado 23/10/2024 às 18:19 – Atualizado 23/10/2024 às 18:44