A TOXICIDADE ALGORÍTMICA NA INTELIGÊNCIA ARTIFICIAL APLICADA AOS PROCESSOS DE SELEÇÃO DE TRABALHADORES
O ENVIESAMENTO DISCRIMINATÓRIO PARA GRUPOS VULNERABILIZADOS E AOS DIREITOS HUMANOS
DOI:
https://doi.org/10.29327/1163602.7-143Keywords:
TOXICIDADE ALGORÍTMICA;, VIÉS DISCRIMINATÓRIO;, SELEÇÃO DE TRABALHADORES;, GRUPOS VULNERABILIZADOS;, DIREITOS HUMANOSAbstract
A presente pesquisa tem por objeto abordar a toxicidade algorítmica na inteligência artificial nos processos de seleção de trabalhadores e como podem refletir um viés discriminatório nas relações pré-contratuais de trabalho para grupos vulnerabilizados e, consequentemente, aos direitos humanos. É incontroverso que vivemos em um ambiente de sociedade da informação, onde o uso de novas tecnologias é cada vez mais intensificado, causando impactos diretos nas relações humanas e sociais, além das relações institucionais, empresariais e administrativas, como também no âmbito laboral, visto que as relações trabalhistas estão se tornando automatizadas e refletindo em grupos vulnerabilizados de trabalhadores a partir de sinais identitários como idade, gênero, raça, orientação sexual, religião, classe social, etc. A utilização da inteligência artificial nos processos de recrutamento de trabalhadores por empresas sugere a ideia de que referidas escolhas por seres humanos seriam suscetíveis de falibilidade, porém, o que se observa é que a utilização da inteligência artificial nos processos de seleção de trabalhadores como ferramenta de tomada de decisões tem apresentado resultados contrários do que se esperava. Isso porque dependendo da base de dados que a inteligência artificial tem acesso e de como é alimentada, ela pode aprender de uma forma equivocada e distorcida da realidade da sociedade atual, aprendendo com bases de dados preconceituosas e tendenciosas, priorizando certos grupos sociais em detrimento de outros na tomada de decisão e, consequentemente, produzir um viés discriminatório e a marginalização de grupos sociais vulnerabilizados em escala global. Por exemplo, o caso da Amazon, cujo software realizou recrutamento de pretensos funcionários com fulcro na identidade de gênero, selecionando apenas homens e, inviabilizando às mulheres a oportunidade de serem recrutadas e de trabalhar. Infringindo direitos humanos e o princípio da dignidade humana do trabalhador gerando impactos negativos nas relações laborais. Castells advertiu que este novo sistema poderia gerar ou trazer um aumento da desigualdade social e a polarização em razão do crescimento simultâneo de ambos os extremos da escala social, numa visão do que chamou de capitalismo informacional, contribuindo para a exclusão social, desassociando nesta dinâmica as pessoas, trabalhadores e consumidores. E esses vieses discriminatórios são gerados pela toxicidade dos algoritmos na inteligência artificial com o potencial de criar uma subcategoria de cidadãos que já são discriminados por pertencerem a algum grupo vulnerabilizado que ficam mais excluídos pelas empresas em seus processos seletivos, reproduzindo comportamentos discriminatórios da sociedade. Havendo necessidade de políticas identitárias não excludentes. A metodologia utilizada foi bibliográfica-teórica em conjunto com a abordagem metodológica jurídico-sociológica.