LIMITES DO USO DE INTELIGÊNCIA ARTIFICIAL NO JUDICIÁRIO BRASILEIRO

UMA PERSPECTIVA DOS DIREITOS FUNDAMENTAIS

Autores

  • Jamile Sabbad Carecho Cavalcante
  • Leonardo Vieira de Almeida Universidade Federal Rural do Rio de Janeiro

Palavras-chave:

INTELIGÊNCIA ARTIFICIAL, DEVIDO PROCESSO LEGAL, DIREITOS FUNDAMENTAIS.

Resumo

  A pesquisa investiga o uso da inteligência artificial (IA) no Poder Judiciário, visando identificar os riscos aos direitos fundamentais que surgem com o desenvolvimento de sistemas inteligentes nesse setor. A metodologia adotada é dedutiva, partindo da análise de premissas gerais sobre os desafios éticos para os direitos fundamentais, especialmente o devido processo legal, na implementação de IA no judiciário brasileiro. Assim, o estudo baseia-se em uma revisão bibliográfica quali-quantitativa de artigos nacionais e internacionais sobre discriminação algorítmica, com foco no contexto brasileiro. O rápido avanço tecnológico, somado ao monopólio do controle desses meios por grandes empresas comandadas por indivíduos que acabam por nutrir as variadas maneiras de preconceitos e segregações sociais, cria desafios significativos que justificam a importância social e jurídica da presente pesquisa. Entre eles, destacam-se a falta de transparência nos algoritmos utilizados, o potencial para a reprodução de vieses existentes pela máquina e a necessidade de regulamentações que assegurem a equidade e a justiça no uso da inteligência artificial no sistema judicial. De acordo com o levantamento mais recente feito em 2023 pelo Conselho Nacional de Justiça (CNJ, 2024) e divulgado em 2024, 62 dos 94 órgãos do Poder Judiciário já possuem algum tipo de iniciativa de IA chegando a um total de 140 projetos de inteligência artificial desenvolvidos ou em desenvolvimento nos tribunais. O que representa um aumento de 26% em relação à pesquisa anterior de 2022. A maioria dos projetos, 86,4%, utiliza machine learning. Esse desenvolvimento acelerado levanta preocupações sensíveis, como a diversidade e inclusão nas equipes de desenvolvimento, a interoperabilidade dos sistemas, a discriminação algorítmica e a opacidade das máquinas. A programação humana está se tornando menos central na aprendizagem dos algoritmos, o que reduz o controle humano sobre os sistemas. Isso dificulta a transparência e a rastreabilidade, tornando mais difícil a supervisão humana e a responsabilização por danos causados por essa estrutura. Hoje no Brasil não há uma lei geral de inteligência artificial para regulamentar seu uso e desenvolvimento ético. No âmbito do Poder Judiciário, a Resolução nº 332/2020 do CNJ dispõe sobre a ética, a transparência e a governança na sua produção e no seu uso. A presente resolução traz que as decisões quando apoiadas em IA devem preservar a igualdade, a não discriminação, a pluralidade, a solidariedade e o julgamento justo, visando eliminar ou minimizar a opressão, a marginalização do ser humano e os erros de julgamento decorrentes de preconceitos. Esses são alguns dos maiores desafios que encontramos na utilização de sistemas inteligentes judiciais, tendo em vista que não há neutralidade ética na tecnologia. Em relação às equipes desenvolvedoras cabe mencionar que, segundo a pesquisa “Quem Coda BR” promovida em 2019 pelo PretaLab em parceria com a Thoughtworks, o mercado tecnológico brasileiro é dominado por homens, brancos, jovens de classe socioeconômica média e alta, carecendo de diversidade e exacerbando as desigualdades. É essencial refletir sobre como esses autores contribuem para a construção dessas ferramentas, a fim de assegurar um maior respeito aos direitos fundamentais neste avanço tecnológico.

Biografia do Autor

Jamile Sabbad Carecho Cavalcante

Mestre em Direito Público pela UNESA/RJ na linha de Direitos Fundamentais e Novos Direitos (2023.2), com bolsa (PROSUP/CAPES). Bacharel em Direito pelo Centro Universitário Ibmec RJ (IBMEC/2021) honrada com láurea acadêmica. Residente jurídica no Ministério Público do estado do Rio de Janeiro desde outubro 2022, lotada na 2ª Procuradoria de Justiça. Pesquisadora do Grupo de Pesquisa "Observatório do avanço da inteligência artificial na atividade jurisdicional e a efetividade do acesso à justiça" do IBMEC/RJ, dos Grupos de Pesquisas "Fundamentos do Processo Civil" e "Observatório de Cultura Jurídica e Democratização do Processo" ambos da UNESA/RJ.

Leonardo Vieira de Almeida, Universidade Federal Rural do Rio de Janeiro

Estudante de graduação em Direito pela Universidade Federal Rural do Rio de Janeiro (UFRRJ). Atuou no ano de 2021, como aluno voluntário do Observatório de Direitos Humanos da UFRRJ. É membro do Observatório de Cultura Jurídica e Democratização do Processo, orientado pelo Prof. Alexandre de Castro Catharina.

Publicado

02.10.2024

Edição

Seção

SIMPÓSIO On49 - DEVIDO PROCESSO LEGAL, DECISÃO JUDICIAL E O USO DE INTELIGÊNCIA