NEUROTECNOLOGÍAS, INTELIGENCIA ARTIFICIAL Y DERECHOS HUMANOS:
UNA MIRADA SOSTENIBLE Y HUMANISTA DESDE LA FUNCIÓN DE CUMPLIMIENTO NORMATIVO
Palavras-chave:
NEUROTECNOLOGÍAS, INTELIGENCIA ARTIFICIAL, DERECHOS HUMANOS, CUMPLIMIENTO NORMATIVO, EVALUACION DE IMPACTO SOBRE DERECHOS FUNDAMENTALES, SOSTENIBILIDAD, CADENA DE SUMINISTRO, DILIGENCIA DEBIDAResumo
El proyecto de investigación se centra en el análisis del reto mayúsculo que supone la combinación de las neurotecnologías y la inteligencia artificial y sus usos en los ámbitos empresariales en relación con la promoción y la protección de los derechos humanos. En pleno debate sobre la conveniencia de configurar nuevos derechos humanos que protejan la propia esencia del ser humano, se propone una mirada desde la función de cumplimiento normativo de las empresas y en qué medida pueden contribuir como actores relevantes en la promoción y protección de los derechos humanos en un momento de profundos cambios.
La relevancia de esta temática radica en la acelerada integración de tecnologías emergentes en los procesos productivos y de toma de decisiones empresariales, lo que plantea interrogantes inéditos sobre la protección de los derechos humanos, los derechos fundamentales, la privacidad, la autonomía individual y la no discriminación, así como sobre la responsabilidad de los actores privados en la promoción de un enfoque humanista y sostenible. El ecosistema normativo europeo se ha propuesto poner al ser humano en el centro, siendo ejemplos el Reglamento de Inteligencia Artificial o la Directiva de Diligencia Debida en materia de sostenibilidad, entre otras. Este desafío para las empresas que operan en el ámbito europeo puede verse al mismo tiempo como una oportunidad de crecimiento sostenible y humano, cuidando, promocionando y protegiendo los derechos humanos como principios irrenunciables.
El objetivo principal de la investigación es identificar los riesgos y oportunidades que la convergencia entre neurotecnologías, IA y derechos humanos genera en el ámbito empresarial, y proponer un marco de autorregulación que complemente (incluso que ayude a liderar) la configuración de un marco normativo necesario, promoviendo una cultura de respeto y protección de los derechos humanos. Se analiza y emplea como metodología la técnica de “Evaluación de impacto sobre los derechos fundamentales de los sistemas de IA de alto riesgo” del artículo 27 del Reglamento de Inteligencia Artificial.
La metodología empleada combina el análisis doctrinal y normativo con el estudio de casos prácticos, permitiendo identificar tanto los vacíos regulatorios como las buenas prácticas emergentes. Se parte de la hipótesis de que tanto el Reglamento de Inteligencia Artificial como la Directiva europea de Diligencia Debida en materia de Sostenibilidad pueden servir de catalizadores para la creación de mecanismos de autorregulación más efectivos, siempre que se integren principios éticos y humanistas en el diseño y uso de neurotecnologías e IA.
En conclusión, la investigación destaca la necesidad de repensar el papel de la autorregulación y el cumplimiento normativo en el contexto de la revolución tecnológica, promoviendo una mirada humanista que sitúe la protección de los derechos humanos en el centro de la innovación y la sostenibilidad empresarial.