Após ‘operação de influência’ da indústria, governo Lula rifou proteção a trabalhadores para aprovar regulação de IA

Novo texto afrouxa regulação e abre brecha para demissões em massa provocadas pela substituição de pessoas por inteligência artificial.

Imagem: UFGS/Reprodução

Laís Martins e Tatiana Dias

O governo Lula cedeu aos interesses das empresas de tecnologia e da indústria para levar adiante uma de suas promessas de campanha: a regulamentação da inteligência artificial. 

Com a bênção do Executivo, a nova versão do projeto de lei 2338/2023, que visa regulamentar sistemas de IA no Brasil, afrouxou as regras para as empresas e excluiu mecanismos que protegiam os trabalhadores, como proibição de demissões em massa provocada pela substituição das pessoas por IA. 

O texto atual do projeto foi lido pelo relator, senador Eduardo Gomes, do PL de Tocantins, na semana passada na Comissão Temporária de Inteligência Artificial do Senado. Sua votação deve acontecer nesta terça-feira, 2.

O governo federal esteve envolvido desde o início da tramitação e negociação do PL por meio da Secretaria de Comunicação Social da Presidência, a Secom. Mais recentemente, o Ministério da Fazenda passou a fazer parte das negociações. Foram pontos negociados pela pasta chefiada por Fernando Haddad que destravaram o PL, mas também o desidrataram, segundo fontes ouvidas pelo Intercept Brasil. 

A Fazenda abraçou o tema após uma operação de guerra encabeçada pela Confederação Nacional da Indústria, a CNI, que se aliou às big techs que já queriam afrouxar o projeto.

A ofensiva da CNI no tema incluiu o que foi chamado de “operação de influência” por mais de uma fonte envolvida no debate. Um documento com o que seria o substitutivo do relator começou a circular em Brasília e pelo WhatsApp de grupos envolvidos com o tema. 

Mas, embora tivesse a exata formatação de um relatório substitutivo, ele não tinha saído do gabinete do senador. Segundo os relatos, o documento teria sido lançado pela CNI como forma de fazer pressão pública por aquela versão mais enfraquecida do texto. 

A entidade afirmou que não divulgou “qualquer texto como sendo de caráter oficial”, mas sim “notas técnicas e minutas de textos legislativos objetivando a construção de alternativas regulatórias para contribuir com o debate”. Leia aqui a resposta completa da CNI.

A nova versão apresentada por Gomes tem mudanças consideráveis em relação ao texto anterior, que havia sido revelado em julho. O ponto central do projeto é sua classificação de risco dos sistemas de IA. Quanto maior o risco, mais alto deve ser o grau de proteção. Sistemas de armas autônomas turbinadas por IA, por exemplo, são risco excessivo – ou seja, não devem existir.

Decisões sobre saúde, justiça, emprego ou que impactam direitos fundamentais são consideradas de alto risco e, portanto, devem ser explicáveis, contestáveis e ter supervisão humana.

Nesta versão, o governo conseguiu uma vitória: encaixar os sistemas de recomendação de conteúdo nas plataformas de internet como de alto risco. Esse inciso tinha oposição das big techs, mas elas conseguiram outras vitórias importantes.

Na prática, o projeto afrouxou para as empresas porque sistemas de IA que não se encaixem critérios de alto risco não serão regulados. De acordo com especialistas e entidades que debatem o tema, esse é o primeiro problema da proposta. Outra crítica é que também não há previsão de que os critérios sejam atualizados. 

Com aval do governo, um dos pontos suprimidos na nova versão do projeto de lei de IA foi um artigo que coibia a demissão em massa ou substituição extensiva da força de trabalho. O artigo era importante em um “cenário cada vez mais intenso de demissões em massa em diferentes setores em função das substituições de pessoas trabalhadoras por sistemas de IA”, diz Paula Guedes, advogada e pesquisadora do grupo de trabalho de IA da Coalizão Direitos na Rede.

Agora, se o projeto seguir como está, o caminho está livre para as empresas trocarem seus funcionários por sistemas de inteligência artificial.

Na versão anterior, os desenvolvedores de IA também precisavam fazer uma avaliação preliminar do risco de seus sistemas. Agora, isso virou opcional. A Federação das Indústrias de São Paulo, a Fiesp, curtiu: “reduziu burocracias, garantindo que a adoção dessas tecnologias ocorra de forma mais ágil e eficiente”, divulgou a entidade em comunicado.

Ainda há a inclusão de uma série de flexibilizações ou exceções, com textos genéricos. “Isso vai fazer com que, na prática, a lei possa não ser aplicável para muitos sistemas”, diz Jonas Valente, pesquisador do Instituto de Internet de Oxford e integrante da Coalizão Direitos na Rede. 

Trabalhadores mais desprotegidos e precarizados

Com as mudanças, duas áreas críticas, que já sofrem profundamente o impacto da inteligência artificial, escaparam da regulação. 

A primeira delas é o trabalho. O direito à explicação sobre decisões, recomendações ou previsões feitas por sistemas de IA, bem como o direito de contestar e solicitar a revisão dessas decisões, não existe para o trabalho por plataformas.

Ou seja: se motoristas de aplicativo e entregadores forem excluídos ou banidos de uma plataforma por uma decisão automatizada, a lei não garante a ele o direito de recorrer. Para Guedes, a mudança pode fazer com que os trabalhadores “sancionados ou demitidos por uma máquina sem a presença de uma pessoa humana” não tenham nem mesmo uma confirmação ou verificação dos critérios motivadores. 

“É muito arriscado uma suspensão ou demissão só com base em decisão automatizada. Elas têm vieses, não consideram nuances. A decisão impacta a subsistência daquela pessoa. É muito importante que os trabalhadores possam recorrer”, diz Valente. 

YouTube video player

O Intercept já contou a história de um entregador que foi suspenso pelo iFood sem explicação e, por isso, precisou recorrer a uma conta de outra pessoa para continuar trabalhando. Ao morrer em um acidente durante uma entrega, o iFood negou à família o seguro prometido por causa da “fraude” (depois da nossa reportagem, voltou atrás). 

O projeto de lei segue ignorando também questões como os trabalhadores de dados que treinam IA, tema de uma série de reportagens do Intercept. Há muitas boas práticas que poderiam ser adotadas, como garantir pagamentos mínimos e melhores condições de trabalho. Nada disso foi previsto.

“Os operários de dados na cadeia de IA são muito precarizados, especialmente os que se registram em plataforma. Têm uma relação contratual de autônomos, ficam sem direito a ter salário mínimo e seguridade social”, afirma Valente. “O PL deveria ter incorporado não só a IA no local de trabalho, mas também os trabalhadores que estão no desenvolvimento para que eles tenham acesso aos seus direitos.”

Empréstimo negado sem explicação

Outro beneficiário da atual redação do projeto é o setor bancário, que também conseguiu manter sistemas de classificação e score de crédito de fora do rol de alto risco. Isso significa que, se você tiver um empréstimo ou proposta de aluguel negada por um sistema automatizado, não poderá recorrer nem saber a razão.

Na época da discussão da Lei Geral de Proteção de Dados, a LGPD, o setor bancário conseguiu fazer com que o setor de crédito fosse exceção à lei, com regras específicas para o tratamento de dados pessoais para este fim. Na época, a proposta foi muito criticada – mas desta vez, aconteceu igual. 

No caso de IA para crédito, o cenário é ainda mais complicado. Quando se trata de análise de dados por IA, a relação não é a de causa e efeito: você não pagou um boleto, logo seu nome está sujo. 

Os sistemas automatizados podem levar em conta padrões de determinado grupo, como gênero, idade, raça e endereço, para tomar uma decisão sobre um indivíduo. E as máquinas, como nós sabemos e inúmeros estudos já mostram, estão sujeitas a tomarem decisões preconceituosas e enviesadas.

Em uma nota técnica de junho, a Coalizão Direitos na Rede, que reúne mais de 50 organizações acadêmicas e da sociedade civil, alertou que “o acesso ao crédito financeiro é fundamental como condicionante para o exercício de uma série de direitos constitucionalmente garantidos, fazendo com que a automatização de sua concessão, por meio da pontuação de crédito definida por IA, deva estar sujeita a garantias robustas, especialmente em razão do potencial discriminatório”.

Fonte: Intercept Brasil

Clique aqui para ler o texto original.

Data original de publicação: 2 de dez de 2024

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Translate »