O PRINCÍPIO DA EXPLICABILIDADE NA INTELIGÊNCIA ARTIFICIAL COMO INSTRUMENTO PARA A PROTEÇÃO DOS DIREITOS HUMANOS

Autores

  • Guilherme Damasio Goulart Centro Universitário Cesuca

Palavras-chave:

INTELIGÊNCIA ARTIFICIAL, PRINCÍPIO DA EXPLICABILIDADE, DIREITOS HUMANOS

Resumo

O cenário atual de utilização de ferramentas de Inteligência Artificial (IA) traz consigo a necessidade de se compreender como as decisões são tomadas pelos modelos. Destaca-se aí a importância do princípio da explicabilidade. Partindo dessa premissa, o problema de pesquisa adotado é: qual é o papel do princípio da explicabilidade para a proteção dos direitos humanos nas decisões tomadas por ferramentas de IA? Como objetivos, busca-se compreender o papel do princípio da explicabilidade na IA, verificar suas variações e modalidades e analisar em qual medida a sua presença nos sistemas de IA serve como instrumento para a proteção dos direitos humanos. Utilizar-se-á a revisão bibliográfica, com abordagem dedutiva e comparativa, por meio do cotejo com as regulações europeia e brasileira (sobretudo GDPR, AI Act e LGPD). Como hipótese, supõe-se que o princípio contribui para a proteção de direitos humanos e que, na sua falta, pode ser impossível examinar situações de generalizações ilícitas, vieses discriminatórios ou afetações de direitos. O princípio da explicabilidade é crucial nas relações entre IA e direitos humanos, devido ao risco de generalizações ilícitas, enviesamentos discriminatórios e decisões não fundamentadas. É assim que surge o termo “Explainable Artificial Intelligence” (XAI). Sem a presença da explicabilidade, pode ocorrer o efeito “black box” e a IA pode se transformar em mero oráculo. Se a manutenção de direitos humanos nos ambientes digitais exige um grau de fundamentação dos outputs, sua falta impede que se justifiquem decisões que possam afetar direitos humanos. A explicabilidade serve como um antecedente lógico e epistemológico para a defesa de direitos. O princípio da explicabilidade é, ainda, autônomo em relação ao da transparência: não basta ser transparente sobre a realização da operação técnica, bem como sobre seus fundamentos técnicos principais, é preciso explicá-la de forma compreensível, coerente e clara para aqueles que não possuem competências técnicas para entender operações complexas. Um balizador do princípio, portanto, passa a ser a vulnerabilidade das pessoas. Dependendo do grupo envolvido, explicações mais claras e pormenorizadas podem ser necessárias. Essa explicação permite, além do exercício de direitos pelos titulares, uma responsabilização (accountability) dos agentes controladores das ferramentas de IA. Nota-se no art. 13 do AI Act a presença, além da transparência, da explicabilidade, quando se refere à possibilidade de se interpretar os resultados de sistema de IA. Defende-se que o princípio deve ser seguido em qualquer situação de uso de ferramentas de IA, não somente nas situações de sistemas de IA de risco elevado, diante do princípio da centralidade do ser humano. Deve haver uma preparação técnica para que sistemas complexos de IA consigam arrazoar, fundamentar e justificar, quando solicitados, as decisões por eles tomadas, consistindo em um requisito funcional dos sistemas. Recomenda-se, por fim, na avaliação de impacto sobre direitos fundamentais, no âmbito do AI Act, que se inclua a explicabilidade como um dos elementos a serem avaliados, afastando o risco da opacidade. 

Publicado

02.10.2024

Edição

Seção

SIMPÓSIO On45 - INTELIGÊNCIA ARTIFICIAL E VIOLAÇÕES DE DIREITOS HUMANOS