di Raffaella Calandra
Il Sole 24 Ore, 15 novembre 2024
Al Venice Justice Group G7 di Roma: cogliere le opportunità della tecnologia ma solo ai giudici le decisioni. E se si arrivasse al punto che la giustizia degli algoritmi fosse più richiesta di quella umana? E se si facesse in modo che le sentenze seriali diventassero per alcuni preferibili a quelle nate dall’interpretazione dei giudici? Provocazioni e interrogativi che possono apparire da letteratura distopica, ma siamo in un mondo nuovissimo - volendo parafrasare il libro di Aldous Huxley - e occorre prendere le misure. Con una regolamentazione flessibile, in continuo aggiornamento e sviluppata sull’esperienza. Soprattutto se si deve trovare un equilibrio tra opportunità e rischi dell’Intelligenza artificiale. Soprattutto quando l’uomo più ricco al mondo, proprietario di piattaforme social, principale finanziatore del futuro presidente Usa e vicino anche alla premier, si scaglia contro i giudici autori di pronunce non gradite. Scenari sullo sfondo della prima riunione ieri alla Farnesina del Venice Justice Group, nato durante il G7 giustizia con l’obiettivo di un confronto tecnico tra le principali potenze su un tema cruciale come l’Ia. E le parole più ricorrenti sono opacità e controlli.
Accompagnare la giustizia, non sostituirla - La linea del governo, espressa nel disegno di legge ora in Parlamento, è che “l’intelligenza artificiale potrà accompagnare l’amministrazione della giustizia ma non sostituirla”, sintetizza il sottosegretario alla Presidenza del Consiglio Alfredo Mantovano. Una funzione servente, non di decisione. Nonostante “anche il giudice subisca ahimé l’influenza dei propri convincimenti”, chiosa. Pur partendo dalla premessa che “come ricordava il giudice Rosario Livatino il compito del magistrato non deve essere solo rendere concreto il comando della legge ma darvi un’anima”. Qui, per dirla con il filosofo Pascal evocato dal Ministro della Giustizia Carlo Nordio, sta la distinzione tra l’esprit de géométrie, che può essere attribuito all’algoritmo, e l’esprit de finesse, fatto di “conoscenza dell’animo umano e della capacità di calare la legge nei casi specifici”, propria della mente umana. E se questo è un punto di partenza condiviso - come la necessità di cogliere le opportunità della tecnologia - la questione diventa come maneggiare l’Intelligenza artificiale nella consapevolezza che anche “attori non benevoli - ricorda Riccardo Guariglia, segretario generale Maeci - entrano nelle dinamiche geopolitiche con campagne di disinformazione”.
Quanti rischi siamo pronti a correre, si chiede Mariarosaria Taddeo, docente all’Università di Oxford, considerando che la tecnologia “può imparare anche ciò che non si vuole” e che comunque all’origine della catena ci sono le multinazionali? Il tema diventa anche “comprendere la traiettoria in tema di governance”.
Scarsa affidabilità e potenzialità discriminatoria - Alcuni dei pericoli li mette in fila Paola Severino, presidente della Scuola nazionale dell’amministrazione: “Scarsa affidabilità, potenzialità discriminatoria e rischio di influenza sull’imparzialità del giudice”. Quanto l’Intelligenza artificiale può ad esempio accrescere i pregiudizi sulla recidiva, tema oggetto di sperimentazioni negli Usa?
E un giudice robot come si sarebbe comportato nel bilanciamento di aggravanti e attenuanti in un caso complesso, arrivato fino alla Corte costituzionale, come quello di Alex Pompa, il ragazzo che ha ucciso il padre dopo anni di violenze, nel tentativo di difendere la madre? La vicenda è citata dalla Presidente emerita della Consulta, Marta Cartabia, che parla della necessità di una “responsive regulation orientata a valori costituzionali” e non solo al mercato, che scaturisca dall’esperienza, sia flessibile, sovranazionale e “accompagnata da formazione continua”.
Come continui sono gli aggiornamenti tecnologici. Spunti che chiamano in causa tutti gli attori della giustizia. E se nell’era del digitale il codice diventa il cyberspazio, per dirla con l’epistemologo Jean Lassègue, e il neurochirurgo Giulio Maira si concentra sul “progetto culturale che sfrutti le risorse dell’Ia”, il teologo padre Paolo Benanti avverte: “l’esperienza tra macchina e utente va messa in sicurezza tra due guardrail”. “Non possiamo lasciare compromettere la qualità della giustizia”, il monito del capo dell’Ufficio legislativo del Ministero della Giustizia, Antonio Mura. Da qui ripartono oggi le delegazioni.











