O ESPELHAMENTO DA SOCIEDADE PATRIARCAL PELOS ALGORITMOS E O CENÁRIO REGULATÓRIO BRASILEIRO
VULNERABILIDADES
Palavras-chave:
VULNERABILIDADES, DISCRIMINAÇÃO, ALGORITMOS E IA, PATRIARCADO, REGULAÇÃOResumo
O objetivo do presente estudo é refletir sobre como a inteligência artificial (IA), ao operar com base em dados históricos e decisões humanas, pode reproduzir padrões discriminatórios de gênero oriundos de uma sociedade estruturada sob o modelo patriarcal. A hipótese central é de que os algoritmos não produzem novas maneira de opressão, mas sim espelham, de modo automatizado, os vieses e desigualdades já consolidados nas estruturas sociais analógicas. Diante da crescente adoção da IA em processos decisórios, entre os quais, a triagem de currículos, o reconhecimento facial e o acesso a políticas públicas, se revela imperiosa e urgente realização de exames dos impactos causados por essa tecnologia sobre os direitos fundamentais, especialmente aqueles atinentes à igualdade de gênero. A justificativa do estudo se revela na necessidade de compreensão sobre a persistência da dominação masculina no ambiente digital e identificação da exclusão de mulheres e de grupos marginalizados dos bancos de dados e das equipes de desenvolvimento de sistemas, alimentando a perpetuação de discriminações algorítmicas. Essa situação exibe a objeto central da presente pesquisa, que exibe, de um lado, a questão da dominação masculina no ambiente digital, e de outro lado, a identificação dos excluídos nesse processo, entre os quais se encontraram as mulheres. A metodologia utilizada no presente estudo, se vale dos métodos das referências bibliográficas (interdisciplinares) e documental, utilizando artigos científicos de revistas jurídicas qualificadas, livros e capítulos de livros (aportes do Direito Administrativo, de Teorias Feministas e da Ciência da Computação), além de jurisprudência e legislações pertinentes, a partir de abordagem dedutiva, qualitativa e aplicada ao encaminhamento de soluções jurídicas aos conflitos trazidos pelas novas realidades tecnológicas. A pesquisa aprecia casos concretos de discriminação algorítmica, destacando situações apuradas nos buscadores de conteúdo, sistemas de passaporte, reconhecimento facial e processos seletivos automatizados; aprecia, também, projetos de lei brasileiras em tramitação, notadamente o PL 2338/2023, que propõe medidas de transparência, avaliação de riscos e inclusão de diversidade nas equipes de desenvolvimento. Como resultados parciais, o estudo revela que a IA, apesar de sua aparente neutralidade técnica, reflete os valores sociais dos quais os dados foram originados; que os algorítmos treinados com dados enviesados, ou desenvolvidos por equipes pouco diversas, reforçam estereótipos de gênero e raciais, já presentes na sociedade; que casos como o da Amazon, que desenvolveu um sistema de recrutamento que desfavorecia mulheres, e a categorização racista em softwares de reconhecimento facial, demonstram o caráter estrutural da discriminação algorítmica; que os danos causados por esses sistemas, vão além de falhas técnicas, alcançando o espelhamento da lógica patriarcal dominante; que apesar dos avanços regulatórios, a racionalização legal, per se” é insuficiente para desafiar o enfrentamento da discriminação algorítmica, já que o próprio Direito pode reproduzir os valores patriarcais que pretende combater; que o enfrentamento da desigualdade de gênero na era digital exige não apenas regulação técnica, mas a desconstrução das bases patriarcais que estruturam as relações sociais.