sito

storico

Archivio storico

                   5permille

   

di Gianfranco Amendola

Il Fatto Quotidiano, 27 agosto 2024

Ieri ho chiesto alla app della Intelligenza artificiale (Ia) di scrivere una sentenza a carico di una discoteca che fino alle 3 di notte diffondeva musica e urli ad altissimo volume, impedendo il riposo dei vicini. L’esito è stato impressionante perché dopo due minuti l’Ia mi ha sfornato due sentenze di condanna, una civile e l’altra penale, con Fatto e Diritto, panoramica della normativa applicabile, capo di imputazione e giurisprudenza, nonché dispositivo con sanzioni, lasciando in bianco solo i particolari relativi alle parti e quelli su accertamenti tecnici specifici: in due minuti ha fatto quello che a me richiederebbe almeno due o tre ore di studio (se il caso è semplice). Vale la pena meditarci sopra perché esiste il rischio che la giustizia possa essere affidata alla Ia o, quantomeno, che il giudice venga influenzato da una sentenza che gli arriva dopo due minuti. Intendiamoci: la stessa Ia precisa che le sentenze deve farle il giudice ma ovviamente, non basta dirlo.

Per fortuna, pochi giorni fa è entrato in vigore un corposo regolamento comunitario (n. 1689) che stabilisce regole armonizzate sull’Intelligenza artificiale tenendo conto della necessità di “garantire un elevato livello di protezione degli interessi pubblici, quali la salute e la sicurezza e la protezione dei diritti fondamentali, compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente”; prevedendo, in caso di inadempienza, “sanzioni proporzionate e dissuasive”, che possono includere avvertimenti e misure non pecuniarie.

Ovviamente, è impossibile sintetizzarlo in poche righe ma è opportuno ricordare almeno che il Regolamento divide i sistemi Ia in tre categorie, a seconda del rischio per la sicurezza degli utenti e per il rispetto dei diritti fondamentali, e individuando per ciascuna categoria gli obblighi gravanti sui fornitori e sugli utilizzatori “professionali”. Opportunamente il Regolamento dedica ampio spazio ai rischi che l’utilizzo della Ia può comportare nel settore della giustizia (ad alto rischio) e proprio per questo, nelle premesse, precisa che, “in linea con la presunzione di innocenza, le persone fisiche nell’Unione dovrebbero sempre essere giudicate in base al loro comportamento effettivo… mai sulla base di un comportamento previsto dall’Ia basato unicamente sulla profilazione, sui tratti della personalità o su caratteristiche quali la cittadinanza, il luogo di nascita, il luogo di residenza, il numero di figli, il livello di indebitamento o il tipo di automobile, senza che vi sia un ragionevole sospetto che la persona sia coinvolta in un’attività criminosa sulla base di fatti oggettivi verificabili e senza una valutazione umana al riguardo”, aggiungendo che “l’impatto dell’utilizzo della Ia sul diritto alla difesa degli indagati non dovrebbe essere ignorato, in particolare la difficoltà di ottenere informazioni significative sul funzionamento di tali sistemi e la difficoltà che ne risulta nel confutarne i risultati in tribunale, in particolare per le persone fisiche sottoposte a indagini”; concludendo che “l’utilizzo di strumenti di Ia può fornire sostegno al potere decisionale dei giudici o all’indipendenza del potere giudiziario, ma non dovrebbe sostituirlo: il processo decisionale finale deve rimanere un’attività a guida umana”.

Significa molto ma, in ogni caso, a prescindere dalle raccomandazioni comunitarie, resta aperto il problema di quanto possa influire su una sentenza un apporto massiccio e indiscriminato di dati attinenti a casi come quello, volta per volta, in discussione, che il giudice si trova a disposizione dopo due minuti. Con grande gaudio di chi vorrebbe separare le carriere dei magistrati in nome di una terzietà del giudice che, in tal caso, non sarebbe neppure un umano. Una terzietà, tuttavia, totalmente aberrante in quanto le decisioni giudiziarie non sono basate solo su leggi e precedenti, ma anche su valori umani, sensazioni e considerazioni che un’Ia non considera affatto; solo l’intervento umano, con la sua dose di esperienza e sensibilità, può realmente soddisfare quei criteri fondamentali di certezza del diritto, dell’”oltre ogni ragionevole dubbio”, di tutela del reo, in un’ottica generale di garanzia dei diritti fondamentali della persona umana, stabiliti a livello costituzionale, europeo e internazionale, anche al fine di evitare possibili errori giudiziari e la deresponsabilizzazione del giudicante.

Fortunatamente, la scarsa dottrina (specie su Questione Giustizia) che si è occupata di Ia ha evidenziato questi aspetti critici, così come, nel recentissimo ddl governativo in materia di intelligenza artificiale, l’art. 14, comma 1, prevede espressamente (ma in modo del tutto generico) che “i sistemi di Intelligenza artificiale sono utilizzati esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario, nonché per la ricerca giurisprudenziale e dottrinale”. Ma sarà sufficiente?