LIMITES DO USO DE INTELIGÊNCIA ARTIFICIAL NO JUDICIÁRIO BRASILEIRO
UMA PERSPECTIVA DOS DIREITOS FUNDAMENTAIS
Keywords:
INTELIGÊNCIA ARTIFICIAL, DEVIDO PROCESSO LEGAL, DIREITOS FUNDAMENTAIS.Abstract
A pesquisa investiga o uso da inteligência artificial (IA) no Poder Judiciário, visando identificar os riscos aos direitos fundamentais que surgem com o desenvolvimento de sistemas inteligentes nesse setor. A metodologia adotada é dedutiva, partindo da análise de premissas gerais sobre os desafios éticos para os direitos fundamentais, especialmente o devido processo legal, na implementação de IA no judiciário brasileiro. Assim, o estudo baseia-se em uma revisão bibliográfica quali-quantitativa de artigos nacionais e internacionais sobre discriminação algorítmica, com foco no contexto brasileiro. O rápido avanço tecnológico, somado ao monopólio do controle desses meios por grandes empresas comandadas por indivíduos que acabam por nutrir as variadas maneiras de preconceitos e segregações sociais, cria desafios significativos que justificam a importância social e jurídica da presente pesquisa. Entre eles, destacam-se a falta de transparência nos algoritmos utilizados, o potencial para a reprodução de vieses existentes pela máquina e a necessidade de regulamentações que assegurem a equidade e a justiça no uso da inteligência artificial no sistema judicial. De acordo com o levantamento mais recente feito em 2023 pelo Conselho Nacional de Justiça (CNJ, 2024) e divulgado em 2024, 62 dos 94 órgãos do Poder Judiciário já possuem algum tipo de iniciativa de IA chegando a um total de 140 projetos de inteligência artificial desenvolvidos ou em desenvolvimento nos tribunais. O que representa um aumento de 26% em relação à pesquisa anterior de 2022. A maioria dos projetos, 86,4%, utiliza machine learning. Esse desenvolvimento acelerado levanta preocupações sensíveis, como a diversidade e inclusão nas equipes de desenvolvimento, a interoperabilidade dos sistemas, a discriminação algorítmica e a opacidade das máquinas. A programação humana está se tornando menos central na aprendizagem dos algoritmos, o que reduz o controle humano sobre os sistemas. Isso dificulta a transparência e a rastreabilidade, tornando mais difícil a supervisão humana e a responsabilização por danos causados por essa estrutura. Hoje no Brasil não há uma lei geral de inteligência artificial para regulamentar seu uso e desenvolvimento ético. No âmbito do Poder Judiciário, a Resolução nº 332/2020 do CNJ dispõe sobre a ética, a transparência e a governança na sua produção e no seu uso. A presente resolução traz que as decisões quando apoiadas em IA devem preservar a igualdade, a não discriminação, a pluralidade, a solidariedade e o julgamento justo, visando eliminar ou minimizar a opressão, a marginalização do ser humano e os erros de julgamento decorrentes de preconceitos. Esses são alguns dos maiores desafios que encontramos na utilização de sistemas inteligentes judiciais, tendo em vista que não há neutralidade ética na tecnologia. Em relação às equipes desenvolvedoras cabe mencionar que, segundo a pesquisa “Quem Coda BR” promovida em 2019 pelo PretaLab em parceria com a Thoughtworks, o mercado tecnológico brasileiro é dominado por homens, brancos, jovens de classe socioeconômica média e alta, carecendo de diversidade e exacerbando as desigualdades. É essencial refletir sobre como esses autores contribuem para a construção dessas ferramentas, a fim de assegurar um maior respeito aos direitos fundamentais neste avanço tecnológico.