sito

storico

Archivio storico

                   5permille

   

di Martina Turola

Il Manifesto, 6 maggio 2026

Un sistema di Intelligenza Artificiale (IA) oggi può determinare se una persona ottiene un mutuo, se il suo curriculum viene selezionato per un colloquio, se una richiesta di asilo viene considerata prioritaria; nel prossimo futuro deciderà se un detenuto potrà accedere a un beneficio penitenziario. È invece un algoritmo che non impara dai propri risultati, e che quindi non sfrutta ancora l’IA, ma che potrebbe farlo presto, quello che in Italia assegna le cattedre ai docenti utilizzato dal Ministero dell’Istruzione. Un sistema andato in tilt sia nel 2016 che nel 2022-23, dando un posto a chi aveva meno titoli di altri, piazzando a un ruolo di sostegno chi si candidava per coprire una materia. Migliaia di persone si sono viste sballottate, sradicate, oppure senza lavoro, a causa di un errore algoritmico.

È sempre un sistema di decisione automatizzato, ma basato sull’intelligenza artificiale, quello sotteso al funzionamento di Syri. Non l’assistente virtuale in uso nei dispositivi Apple (Siri), ma un algoritmo utilizzato dal Governo dei Paesi Bassi fra il 2014 e il 2020 con una missione: “smascherare i falsi poveri”. Syri ha finito però per prendere di mira soprattutto quartieri con un’alta percentuale di minoranze, risultando discriminatorio dal punto di vista etnico e sociale. Oltre 20.000 famiglie sono state ingiustamente accusate di frode e hanno dovuto restituire decine di migliaia di euro di sussidi percepiti lecitamente. Alcune di esse sono precipitate nella povertà, accumulando debiti enormi, perdendo la casa e, in oltre 1.000 casi, vedendosi togliere la custodia dei figli da parte dei servizi sociali.

Negli ultimi anni è poi emerso come i sistemi IA basati sul riconoscimento biometrico possano identificare erroneamente persone innocenti, incolpandole di reati che non hanno commesso. I tassi di errore più elevati si sono verificati per le donne e per chi ha una tonalità della pelle più scura. È accaduto negli Usa e in Inghilterra, ma va ricordato che il riconoscimento facciale è utilizzato dalle forze di polizia italiane fin dal 2021, attraverso il sistema Sari Enterprise, con modalità e risultati coperti da opacità e segretezza, dei cui tassi di errore sappiamo poco o nulla.

Uno dei principali rischi che gli strumenti di IA comportano per i diritti umani è infatti quello di produrre e facilitare risultati discriminatori, che violano i diritti civili, politici, economici, sociali e culturali di gruppi vulnerabili e marginalizzati. È noto come questi sistemi replichino i modelli che identificano nei dati di addestramento. Pertanto, possono amplificare i pregiudizi derivanti da visioni del mondo basate su discriminazione ed emarginazione. Come possiamo difenderci se un algoritmo sbaglia o discrimina? In che modo il Regolamento europeo sull’Intelligenza artificiale ci può aiutare in questo? Cosa può fare l’Italia per rendere più efficaci le disposizioni tratteggiate nell’AI ACT dell’Unione Europea?

Può senz’altro cercare di disegnare un processo chiaro per i cittadini e le organizzazioni che intendono presentare un ricorso all’Autorità di Vigilanza del Mercato, nel caso dell’Italia individuata nell’Autorità per la Cybersicurezza Nazionale (ACN). È necessario definire tempi certi per la gestione dei reclami e fare in modo che ACN possa ordinare l’interruzione dell’utilizzo del sistema di AI problematico, comminare sanzioni pecuniarie e gestire meccanismi stragiudiziali di risarcimento del danno. E soprattutto dare attuazione al diritto alla spiegazione sancito nell’AI Act. È quello che The Good Lobby, assieme ad Hermes Center e alla Rete Diritti Umani Digitali hanno chiesto alle istituzioni, attraverso raccomandazioni contenute nell’analisi che abbiamo recentemente presentato in Parlamento. E su cui continueremo a vigilare nei prossimi mesi.