INTELLIGENZA ARTIFICIALE E PUBBLICA AMMINISTRAZIONE
SFIDE DEMOCRATICHE DELL’INNOVAZIONE TECNOLOGICA
Palavras-chave:
INTELLIGENZA ARTIFICIALE, AMMINISTRAZIONE PUBBLICA, VULNERABILITÀResumo
La presente ricerca analizza le implicazioni giuridiche, istituzionali ed etiche connesse all’impiego crescente di sistemi di intelligenza artificiale (IA) nei processi decisionali delle amministrazioni pubbliche, con particolare attenzione alla loro incidenza sui diritti fondamentali delle persone in condizione di vulnerabilità. L’automazione delle decisioni pubbliche, infatti, nei settori della migrazione, dell’assistenza sociale, dell’istruzione o della sicurezza pone sfide complesse in termini di equità, trasparenza e responsabilità. L’interesse scientifico nasce dalla constatazione che gli algoritmi non sono mai neutri ma rischiano di riflettere, incorporare e amplificare logiche, strutture, dati e presupposti spesso opachi, che possono generare bias discriminatori o consolidare diseguaglianze esistenti. In questo contesto, soggetti in condizioni di vulnerabilità (persone migranti, minoranze, individui a basso accesso digitale, soggetti che vivono in territori “fragili”) risultano particolarmente esposti agli effetti distorsivi della cosiddetta “governance automatizzata”. L’obiettivo della ricerca è proporre un modello teorico e operativo per una regolazione giuridica dell’IA in ambito pubblico che sia in grado di garantire il rispetto dei diritti umani, coniugando innovazione e giustizia sociale, trasparenza algoritmica e meccanismi partecipativi. Dal punto di vista metodologico, l’analisi si propone di adottare un approccio comparato e interdisciplinare, coniugando analisi normativa e giurisprudenziale (a livello europeo e internazionale) con lo studio di casi concreti nei quali sistemi di IA sono stati implementati nella gestione pubblica. L’ipotesi è che la piena legittimità dell’uso dell’IA nei processi pubblici dipenda dalla capacità delle istituzioni di garantire meccanismi effettivi di controllo, rimedio e inclusione. Le evidenze preliminari mostrano un divario normativo e istituzionale nella capacità degli ordinamenti giuridici di adattarsi a questi cambiamenti, con rischi crescenti di diseguaglianze algoritmiche. In definitiva, il presente lavoro mira a inserirsi nel dibattito internazionale emergente volto a definire una governance dell’IA che sia trasparente, inclusiva e giusta, e intende contribuire con una proposta che valorizzi la centralità della persona anche in ambienti digitali automatizzati.