VIOLÊNCIA DE GÊNERO E MULHERES ASSASSINADAS

QUANDO A DECISÃO ALGORÍTMICA QUE DECIDE A CONCESSÃO DE MEDIDAS PROTETIVAS FALHA

Autores

  • Sofía Z. R. González Universidad de Sevilla

Palavras-chave:

DECISÃO ALGORÍTMICA, MEDIDAS PROTETIVAS, MULHERES ASSASSINADAS, VIOGÉN, VIOLÊNCIA DOMÉSTICA

Resumo

Neste trabalho, discorre-se sobre as falhas na concessão de medidas protetivas às mulheres vítimas de violência doméstica e familiar quando a decisão dos julgadores é assistida ou determinada por algoritmos de inteligência artificial (IA) no Poder Judiciário. Considerando-se que, em larga medida, os algoritmos utilizados pelas autoridades implementam conjuntamente modelos preditivos e IA, parte-se neste artigo da análise da aplicação do VioGén, utilizado pelo governo da Espanha, que avalia a probabilidade de uma vítima de violência doméstica ser (novamente) atacada pelo agressor e qual proteção oferecer, mas que tem levado, entre acertos e erros, a consequências fatais. Em 2020, comunicações emitidas por fontes oficiais do governo espanhol anunciaram que alguns procedimentos do VioGén passariam a ser realizados com aprendizado de máquina, a fim de incorporar análises avançadas e inteligência artificial no combate à violência de gênero, o que permitiria ponderar melhor os indicadores de risco de reincidência e identificar novas variáveis ​​que ajudariam a refinar ainda mais a avaliação de risco do algoritmo. Este estudo se justifica diante de um cenário no qual, cada vez mais, as autoridades policiais e o Judiciário de diversos países têm se utilizado de algoritmos para combater a violência de gênero sem perceberem que, diante da dependência da utilização de tais ferramentas e dos níveis de risco mal calculados produzidos por elas, as mulheres correm o risco de serem assassinadas por indivíduos classificados em bons escores de pontuação, diante do indeferimento das medidas protetivas ou da insuficiência das medidas concedidas. O artigo tem por objetivo analisar como algoritmos podem falhar ao não conseguir (ou não serem direcionados a) capturar elementos essenciais para a compreensão e a percepção humana do risco real que as mulheres vítimas de violência doméstica correm de serem assassinadas por indivíduos algoritmicamente bem posicionados nas escalas numéricas. Tem-se como hipótese inicial que, ao contrário do pensamento de algumas autoridades de que as decisões algorítmicas são mais confiáveis e precisas, as perguntas que produzem uma pontuação algorítmica ao agressor mascaram, reduzem e omitem na objetividade delas aquilo que não se pode definir no contexto de violência de gênero a partir de meras respostas do tipo “sim/não/não se aplica”. Nesse sentido, discorre-se neste trabalho, argumentando-se criticamente a partir de uma metodologia de pesquisa que se ampara no método de abordagem dialético e a técnica de pesquisa na documentação direta e indireta, especialmente bibliográfica. Verifica-se, como conclusão primeira, a partir do caso espanhol, que em diversas situações em que a polícia e os juízes aceitaram decisões algorítmicas do VioGén, as vítimas que saíram desassistidas da delegacia ou da sala de audiência judicial, sem a concessão de medidas protetivas básicas ou adicionais, foram assassinadas por agressores creditados pelo Estado como de baixo ou nenhum risco a elas.

Publicado

03.10.2025

Edição

Seção

Simpósio On156 - INTELIGÊNCIA ARTIFICIAL