Inteligência artificial não vai solucionar nossos problemas enquanto sociedade, alerta pesquisadora

Foto: Joédson Alves/Agência Brasil

Por Lucas Weber | Brasil de Fato

Fernanda Rodrigues analisou estudo sobre a percepção de brasileiros sobre casos de discriminação com IA

Uma pesquisa recente revelou que brasileiros e brasileiras discordam total ou parcialmente sobre o uso de inteligência artificial (IA) em casos de identificação de crimes, diagnóstico de doenças e análises de processos judiciais. 

Segundo o estudo realizado pela agência Ideia, em colaboração com o Brazil Forum UK, 40% do público se opõe ao uso da ferramenta na área da medicina e 20% questiona de forma parcial. Apenas 8% concordam totalmente. 

No entanto, a investigação, divulgada em maio deste ano, trouxe uma aparente contradição ao revelar, também, que o público não acredita que a IA pode aprofundar desigualdades de gênero ou raciais. Do total de entrevistados, apenas 34% apresentaram preocupações em relação a estes temas. 

“É interessante que, apesar de não reconhecer essas discriminações, o brasileiro não acredita nessa tecnologia”, afirma a professora Fernanda Rodrigues, doutoranda em Direito pela Universidade Federal de Minas Gerais (UFMG), em entrevista ao programa Bem Viver desta segunda-feira (8).

Coordenada de Pesquisa do Instituto de Referência em Internet e Sociedade (Iris), Rodrigues levou luz a um debate urgente a respeito de inteligência artificial: “Isso abre margem justamente para a gente debater o caminho para a solução, que tem a ver com essa questão do tecnosolucionismo”. 

“O que é isso? Basicamente, a gente entender a tecnologia como um fim em si mesmo. Então, a tecnologia vai trazer o benefício, ela vai trazer o bem, ela pode. Mas a gente precisa analisar se realmente, no caso concreto, está servindo para todo mundo ou se está servindo apenas para uma parcela da população.” 

Para a professora, é importante que a sociedade e as grandes empresas de tecnologias não acreditem ou invistam na IA como uma forma de resolução de problemas estruturais da sociedade, como o racismo e a misoginia.  

“O primeiro passo é entender que a inteligência artificial não é uma tecnologia desconectada da sociedade, pelo contrário. Ela é feita por pessoas humanas e ela também é inserida em um contexto dentro de uma realidade específica.” 

Ou seja, para a professora, combater a discriminação que a inteligência artificial tem potencilizado na internet não passa apenas pela regulamentação estatal e formalização de acordos éticos entre as empresas desenvolvedoras. 

“Essas discriminações potencializadas pela tecnologia vêm de diferentes fontes, como, por exemplo, a falta da diversidade no campo da tecnologia.” 

A pesquisadora cita uma série de exemplos nos quais a IA reproduz comportamentos discriminatório já presentes na nossa sociedade. 

“Na segurança pública, a gente tem casos de tentativa de utilização de [IA no] policiamento preditivo – ferramenta utilizada com a intenção de prever onde teria a maior possibilidade de acontecerem crimes e aí destinar o policiamento específico para essa área.” 

Segundo a especialista, a IA não tem sido capaz de impedir que comunidades já muito marginalizadas e vigiadas pela polícia continuem sendo penalizadas. Pelo contrário, essas ferramentas acabam intensificando ainda mais essa violação de direitos.

Confira a entrevista na íntegra 

Como a inteligência artificial tem reproduzido ou potencializado comportamentos discriminatórios da sociedade?

O primeiro passo é entender que a inteligência artificial não é uma tecnologia desconectada da sociedade, pelo contrário. Ela é feita por pessoas e também é inserida em um contexto dentro de uma realidade específica. 

Boa parte das ferramentas de inteligência artificial se utiliza de uma base de dados que alimenta as informações sobre as quais ela vai gerar novos resultados, podendo ser previsões ou recomendações de determinados conteúdos.

Um dos principais problemas é que esses dados costumam refletir a nossa realidade. E se a gente vive numa sociedade racista, sexista, capacitista e que reproduz outros tipos de discriminação, é natural que esse tipo de tecnologia também acabe não somente reproduzindo, como potencializando essas discriminações. 

Um exemplo bem próximo da nossa realidade tem sido a questão do reconhecimento facial, principalmente utilizada para fins de segurança pública.  Temos diferentes estudos, inclusive um que virou referência na área foi de o de Joy Buolamwini  [canadense] e Timnit Gebru [etíope], são duas pesquisadoras negras estrangeiras que analisaram três sistemas comerciais de reconhecimento facial e identificaram que eles tinham maior índice de falibilidade sobre o rosto de mulheres negras do que sobre o rosto de homens brancos. 

Isso também foi analisado por outros pesquisadores que identificaram que esse mesmo reconhecimento facial tem grandes índices de falha sobre os rostos de pessoas trans. 

Ainda dentro da segurança pública, tem casos de tentativa de utilização de policiamento preditivo – ferramenta utilizada com a intenção de prever onde teria a maior possibilidade de acontecerem crimes e aí destinar o policiamento específico para essa área.  

Mas, independentemente do tipo de dado que alimenta essa ferramenta, a gente percebe que não tem sido suficiente para medir que comunidades que já são muito marginalizadas e muito vigiadas pela polícia sejam novamente penalizadas também através desses sistemas. 

Para mencionar ainda mais um exemplo, na IA para a saúde, já foi analisado um caso em que algoritmos utilizados para agilizar a avaliação de risco do paciente. E vimos que pessoas negras significativamente mais doentes estavam sendo colocados na mesma faixa de risco do que brancos. 

Eu falo muito aqui sobre os dados que alimentam as ferramentas, que eles são os maiores problemas, mas não se trata somente disso. 

Essas discriminações potencializadas pela tecnologia vêm de diferentes fontes, como, por exemplo, a falta da diversidade no campo da tecnologia. 

A gente tem ainda um setor da tecnologia muito composto, principalmente, por homens brancos, e não por pessoas atravessadas por outros marcadores sociais. 

Então, isso impacta na forma como aquela tecnologia é utilizada. O tecnosolucionismo e uma suposta objetividade da tecnologia também mascaram o fato de que ela pode produzir viés e isso pode interferir na interpretação humana sobre os seus resultados. 

A pesquisa mostrou que brasileiros e brasileiras reconhecem que a IA pode potencializar discriminações. Isso é positivo, certo?

Exatamente. Essa pesquisa vem em boa hora, porque ela denota a importância desse cenário que a gente está vivendo atualmente, que é a reconstrução de uma regulação para esses sistemas da inteligência artificial. 

Mas eu gostaria de destacar dois resultados que me chamaram a atenção olhando para essa pesquisa.  

O primeiro é que ainda há, na verdade, uma resistência das pessoas brasileiras em reconhecer que as tecnologias de IA podem aprofundar as igualdades e desigualdades, como por exemplo, desigualdade de gênero e a discriminação racial. 

As pessoas que concordam que as tecnologias podem potencializar esse tipo de discriminação ainda é inferior ao número das que discordam total ou parcialmente.  

Por outro lado, há uma desconfiança muito grande com a utilização de tecnologias para áreas que a gente vê hoje a IA sendo trazida como uma possível solução para problemas históricos. 

Por exemplo, para identificação de crimes, para agilizar diagnóstico de doenças e também para beneficiar análise de processos judiciais. A maior parte das pessoas, em torno de 60% dos entrevistados, afirmam discordar de que essa inteligência artificial possa auxiliar nesses casos. 

É interessante que, apesar de não reconhecer essa discriminação, o brasileiro não acredita nessas tecnologia. 

Isso abre margem justamente para a gente debater o caminho para a solução, que tem a ver com essa questão do tecnosolucionismo.  

O que é isso? Basicamente, a gente entender a tecnologia como um fim em si mesmo. Então, a tecnologia vai trazer o benefício, vai trazer o bem, e sim, ela pode, mas a gente precisa analisar se realmente, no caso concreto, está servindo para todo mundo ou se está servindo apenas para uma parcela da população.  

Além de tudo isso que você está trazendo, é importante o Estado firmar leis para regular a tecnologia?

A regulação é fundamental diante do cenário atual. Como a gente já mencionou, tem pessoas que já estão sendo efetivamente afetadas de forma negativa por essa tecnologia. 

É imprescindível que a gente consiga estabelecer uma regulação para garantir direitos mínimos frente a esses sistemas e também para assegurar que as pessoas possam ter um direito à responsabilização caso elas venham a ser prejudicadas. 

Por outro lado, eu entendo que a regulação é fundamental também para o próprio setor privado para que ele possa promover a inovação e o avanço tecnológico seguro. 

E numa escala de 0 a 10, você vê o Brasil em que estágio nessa formulação de legislações, para dar controle para todas essas questões que a gente está conversando agora? 

Olha, é difícil definir numa escala de 0 a 10. Eu acho que eu ficaria entre 7 e 8, porque a gente evoluiu bastante em relação ao que a gente tinha anteriormente. 

A discussão para regulação no Brasil da inteligência artificial ganhou folêgo principalmente a partir de 2020, com o Projeto de Lei  21/2020, mas muito voltado para princípios.  

Então, ele se assemelhava mais a uma carta de intenções em torno da IA do que, efetivamente, a uma regulação capaz de assegurar direitos e responsabilidades. 

Por outro lado, essas versões mais recentes que, inclusive, estão sendo discutidas em uma comissão temporária interna no Senado, já vão num caminho que eu entendo muito mais pertinente para o nosso contexto. 

É importante que tenhamos uma regulação nacional que faça sentido de acordo com as nossas especificidades, que atribua uma escala para o nível da tecnologia, por exemplo, considerado uma [IA] de risco excessivo, ou seja, que deve ser banida. E, principalmente, não deixar passar essa ideia de que a regulação barra a inovação. 

A gente pode ver daqui a alguns danos a inteligência artificial combatendo discriminações que estão normalizadas no mundo da internet?

Com certeza, eu acho que a gente precisa ser otimista nesse ponto e trabalhar nesse sentido justamente para ter uma regulação que nos auxilie com esses instrumentos para combater a discriminação. 

Usar a IA para outras finalidades, como, por exemplo, prever desastres naturais e condições climáticas, e aí tentar ajudar a população nesse sentido. Por exemplo, para conseguir compreender quais são as áreas de uma cidade que precisam de mais recursos para uma população que está desassistida. 

E nas escolas?

Em relação a IA no ensino, eu acho que, sim, ela tem um potencial muito grande. Inclusive a gente já teve recomendações de organizações internacionais sobre como utilizar a IA no ensino de forma adequada e não para reproduzir ou para vulnerabilizar ainda mais crianças e adolescentes. 

Um ponto positivo dessas versões mais recentes da regulação é justamente a necessidade de que o governo federal implemente estratégias para o letramento digital da população, incluindo ensino sobre a inteligência artificial com prioridade para o ensino básico. 

Se a gente tem dificuldade muitas vezes de compreender que nem tudo o que a tecnologia traz é absoluto, que as informações que estão ali devem ser questionadas e que ela não pode ser lida como um fim em si mesma, isso para crianças é ainda mais preocupante. 

E que a gente também não pode cair na tentativa de colocar IA a todo custo no ensino, tem que ver se ela é realmente necessária naquele contexto. Porque sim, a IA pode ajudar em alguma atividade, mas precisa ver se é preciso adicionar esse tipo de tecnologia ou se a gente tem alguma outra ferramenta que já dá conta.

Clique aqui e acesse a matéria completa

Por Lucas Weber | Brasil de Fato
Data original de publicação: 08/07/2024

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Translate »