sito

storico

Archivio storico

                   5permille

   

di Gianfranco Amendola*

Il Fatto Quotidiano, 26 aprile 2026

Pochi giorni fa è stata depositata una sentenza del Tribunale di Rovigo: “Non è vietato il ricorso alle nuove tecnologie, non venga trascurata la necessaria supervisione umana”. Tutto inizia il 22 giugno 2023 quando la Corte del distretto meridionale di New York emette un’ordinanza motivata con cui irroga a due avvocati una sanzione di 5.000 dollari per avere, in una causa di risarcimento danni, depositato a favore del loro cliente atti giudiziari citando precedenti di giurisprudenza elaborati, peraltro con termini giuridicamente inappropriati, da un sistema di intelligenza artificiale, completamente inventati e quindi inesistenti senza desistere neppure quando i legali della controparte ne avevano dimostrato, appunto, la inesistenza.

Quel che viene condannato dall’ordinanza non è il ricorso alla IA, dato che è del tutto legittimo per un avvocato servirsi della assistenza di altri soggetti (colleghi, consulenti ecc.), ma resta sempre fondamentale dovere professionale di ogni legale il controllo sul materiale che viene depositato e sulla sua affidabilità. Proprio quello che non era stato fatto in quel caso. Peraltro, nello stesso periodo in cui un giudice federale statunitense stabiliva che le conversazioni con chatbot di intelligenza artificiale non godono delle tutele del segreto professionale tra avvocato e cliente, con la possibile conseguenza della condanna del legale per violazione di questo dovere.

Ma tutto questo potrebbe avvenire in Italia? Purtroppo sì, anzi è già avvenuto. Pochi giorni fa è stata depositata una sentenza del Tribunale di Rovigo (sez. 1, 7 aprile 2026, n. 219) in materia civile, con una memoria del legale indirizzata al codifensore ove si leggeva che “se vuoi, posso proseguire con l’inserimento di questa parte in un atto completo di atto di citazione in opposizione ex art. 615 c.p.c. o in comparsa conclusionale. Fammi sapere”, spingendo il giudice a scrivere in motivazione che “In materia processuale, il ricorso a sistemi di intelligenza artificiale nella redazione dell’atto come emerge dallo stilema chiaramente riconducibile a tali tipi di strumenti, induce il giudicante al richiamo ad una maggiore cura nella verifica degli atti che vengono depositati: se, infatti, non è certamente vietato il ricorso agli strumenti che le nuove tecnologie mettono a disposizione, è del pari oltremodo necessario che non venga trascurata la necessaria supervisione e verifica umana dell’output che viene poi versato nei atti processuali, di cui il procuratore continua, ovviamente, ad assumersi la responsabilità”.

Ma, ancor prima, il TAR della Lombardia aveva già emesso una sentenza (Sez. V, 21.10.2025 n. 3348) in una controversia relativa ad una scuola ove si legge che “nel corso del giudizio, il difensore della parte ricorrente aveva inserito nel proprio atto numerose citazioni di sentenze, apparentemente a sostegno delle proprie tesi. Tuttavia, come rilevato dal Collegio e poi ammesso dallo stesso legale, tali precedenti giurisprudenziali si sono rivelati palesemente inconferenti rispetto ai motivi dedotti, riguardando materie del tutto estranee (urbanistica, condono edilizio, gestione di centri accoglienza, pubblico impiego)”; cui seguiva la giustificazione del legale di aver utilizzato strumenti di ricerca basati sull’intelligenza artificiale che avevano generato risultati errati, le ormai note “allucinazioni da IA”, ovvero informazioni inventate ma plausibili nel contesto; meritandosi, così, la sonora bocciatura del TAR il quale, come i giudici americani, concludeva che la sottoscrizione dell’atto attribuisce la paternità e la responsabilità degli scritti difensivi al legale, “indipendentemente dalla circostanza che questi li abbia redatti personalmente o avvalendosi dell’attività di propri collaboratori o di strumenti di intelligenza artificiale”.

Ma se ne è occupata anche la Cassazione. Una prima volta a luglio 2025 (Cass. Pen. n. 25455/2025) quando, trovandosi di fronte una sentenza di una Corte d’Appello che citava, a sostegno della decisione giudiziale, precedenti pronunce di legittimità che “non sono state reperite dalla difesa, nonostante ricerche anche presso gli uffici della Suprema Corte”, paventava un uso “improprio” di strumenti di intelligenza artificiale nella redazione dell’atto. Ancor più palesemente, nell’ottobre dello stesso anno (Cass. Pen., n. 34481), scriveva che “non v’è dubbio che l’uso di strumenti informatici agevola, sul piano pratico, la redazione dei provvedimenti giudiziari ma al contempo aumenta il rischio (oggi esponenzialmente incrementato dall’irrompere sulla scena della intelligenza artificiale) che il giudice attinga “aliunde” gli argomenti del suo decidere, abdicando al dovere di apportare il suo ineliminabile ed insostituibile momento valutativo e facendo venir meno l’in sé del suo essere terzo ed imparziale”.

Proprio negli stessi giorni in cui il Csm (Delibera plenaria dell’8.10.2025) emanava precise “Raccomandazioni sull’uso dell’intelligenza artificiale nell’amministrazione della giustizia” in cui, richiamando anche la normativa comunitaria, evidenziava che “ l’impiego di sistemi di intelligenza artificiale è connesso ad una tecnologia rivoluzionaria, ma che comporta rischi significativi, in particolare per quanto riguarda la tutela dei diritti fondamentali, la protezione dei dati personali e la riservatezza delle informazioni trattate, oltre che l’affidabilità dei dati acquisiti.”, aggiungendo che l’introduzione di sistemi di intelligenza artificiale in ambito giudiziario può essere considerata compatibile con la funzione giurisdizionale soltanto nella misura in cui tali strumenti siano integrati nel rispetto dei principi fondamentali del diritto processuale. In particolare, devono essere garantiti la trasparenza dell’elaborazione algoritmica, la possibilità di verifica e contestazione degli output, la subordinazione all’autonomia valutativa del giudice, e la parità informativa tra le parti. Solo un utilizzo conforme a tali requisiti potrà risultare coerente con i principi di legalità, giusto processo e tutela effettiva, su cui si fonda la giurisdizione in uno Stato di diritto”.

Presto avremo, comunque, una normativa italiana specifica dettagliata quando, tra pochi mesi, entrerà interamente in vigore il Regolamento (UE) 2024/1689 (“AI act”), già in parte anticipato dalla legge 132/2025, ed include l’amministrazione della giustizia tra i settori di utilizzo dei sistemi di IA ad alto rischio dettando una serie di prescrizioni cautelative per garantire un quadro uniforme europeo. Nel frattempo, basta dare uno sguardo su Internet per trovare decine di ditte che pubblicizzano soprattutto per gli studi legali i loro prodotti in cui la IA fa di tutto, ad iniziare dalla redazione di “atti, pareri legali, contratti e documenti giuridici di ogni tipo, a partire da richieste e documenti caricati”. E se facessero anche le sentenze per i giudici?

*Ex magistrato, esperto in normativa ambientale