sito

storico

Archivio storico

                   5permille

   

di Gianluca De Cristofaro e Matteo Di Lernia

Il Sole 24 Ore, 14 aprile 2025

Come vengono affrontatati gli errori commessi dall’IA in campo giuridico. Dopo Usa, Australia, Canada e Uk il primo caso anche in Italia. Il fenomeno dell’”allucinazione” dell’Intelligenza Artificiale in campo giuridico ha visto la luce, per la prima volta, negli Stati Uniti, in particolare a New York. In quel caso, un avvocato aveva citato precedenti giurisprudenziali risultati poi inesistenti. Il legale, interrogato dalla Corte, aveva dichiarato di aver utilizzato ChatGPT, che, dopo ripetute interrogazioni per comprendere come mai non si trovasse riscontro delle decisioni citate dal sistema di AI, ha finalmente ammesso di “aver inventato”; non solo, in quell’occasione si era anche detta sinceramente dispiaciuta per il disturbo arrecato.

Il giudice statunitense ha accertato la malafede nella condotta dei legali, fissando a loro carico una multa per 5.000 dollari. Anche in Australia è emersa l’inesistenza di diciassette casi citati da un legale nel contesto di un procedimento di appello contro un provvedimento del Ministro dell’immigrazione. Il Ministro, verificata la falsità delle sentenze citate, ha portato il caso di fronte alla Corte Federale, sostenendo fosse necessario “bloccare sul nascere” gli avvocati che utilizzano l’IA generativa senza controllare il proprio lavoro.

In Canada, La Corte Suprema della British Columbia ha stabilito che, in ragione di sentenze citate risultate inesistenti ed emerse dall’interrogazione di un sistema di AI, il legale a cui era attribuibile la condotta avrebbe dovuto sostenere le spese per le misure che gli avvocati avversari hanno dovuto prendere per rimediare alla confusione creata dai falsi casi citati.

Non solo. Il giudice ha inoltre ordinato all’avvocato di rivedere tutti gli altri propri atti, ordinando di avvisare ove emergessero materiali depositati o consegnati alla corte che contenessero citazioni di casi o riassunti ottenuti da ChatGPT o da altri strumenti di IA generativa. In UK, nel contesto di un processo di natura tributaria in cui una contribuente si era difesa da sola senza la rappresentanza di un avvocato, erano emerse nove sentenze citate ed estratte da ChatGPT risultate, anche in questo caso, false. Il procedimento si è concluso negativamente per la contribuente, e il Tribunale ha evidenziato che inventare sentenze false comporta una perdita di tempo e di denaro pubblico, riducendo quindi le risorse disponibili per poter portare avanti altri casi che aspettano di essere decisi. Non è stata comminata alcuna sanzione.

Dopo USA, Australia, Canada e UK, anche in Italia è recentemente emerso il primo caso di uso dell’AI in campo giuridico che ha dato risultati del tutto inesistenti. Si tratta di un caso deciso dal Tribunale di Firenze, che, con ordinanza del 14 marzo 2025, ha stabilito - al contrario dei giudici di USA e Australia - che nonostante il disvalore della condotta di omessa verifica dell’effettiva esistenza delle sentenze emerse quali risultati a fronte dell’interrogazione di un sistema di intelligenza artificiale (nella specie, ChatGPT), tale comportamento non si qualifica come strategia difensiva dell’avvocato finalizzata a resistere in giudizio in malafede. Ciò nella misura in cui trattasi di sentenze volte a rafforzare un apparato difensivo già noto nelle fasi precedenti del giudizio. Il Tribunale ha, quindi, chiarito non possa ritenersi sussistente il regime di responsabilità processuale aggravata di cui all’articolo 96 del Codice di procedura civile.

Il caso italiano - Nel contesto di un procedimento di reclamo in cui era stata chiesta l’estensione di un ordine di inibitoria (ottenuto nella prima fase del procedimento cautelare) anche a tutti i rivenditori di un prodotto risultato in contraffazione dei diritti di marchio e d’autore della società che aveva avviato il giudizio, si era costituto solo uno dei rivenditori in questione. Il rivenditore si era difeso sostenendo di non essere stato a conoscenza dei diritti fatti valere in giudizio, e che, quindi, ad esso non poteva ascriversi alcuna responsabilità per l’accertata contraffazione. A sostegno della propria tesi, il rivenditore aveva citato alcuni precedenti giurisprudenziali. Tuttavia, il reclamante ha, nel prosieguo del procedimento, rilevato che tali richiami giurisprudenziali fossero inesistenti, non trovando alcun riscontro in nessuna pronuncia effettivamente emessa.

L’utilizzo dell’AI - Il difensore del rivenditore ha confermato l’inesistenza dei riferimenti giurisprudenziali citati nel proprio atto difensivo; infatti, ha dichiarato il difensore, essi sono stati il frutto di ricerche giurisprudenziali svolte da una propria collaboratrice di studio mediante l’utilizzo dello strumento dell’intelligenza artificiale “ChatGPT”.

Sulla base delle dichiarazioni del difensore, quest’ultimo non sarebbe stato a conoscenza dell’utilizzo del sistema di AI in questione, che avrebbe generato risultati errati in ragione del verificarsi del fenomeno delle cosiddette “allucinazioni di intelligenza artificiale”. Si tratta di un fenomeno che si verifica allorché l’intelligenza Artificiale inventi - sulla base di prompt di ricerca derivanti dall’interrogazione dell’utente - risultati inesistenti che, anche a seguito di una seconda interrogazione, vengono dal medesimo sistema di AI confermati come veritieri e corretti. Nel caso in questione, il sistema di AI avrebbe inventato dei numeri riferibili a sentenze della Corte di cassazione, inerenti, appunto, alla questione giuridica relativa alla rilevanza dell’elemento soggettivo (ad esempio, la consapevolezza della lesione di diritti altrui) nel caso di acquisto e rivendita di prodotti contraffatti, il cui contenuto, però, nulla aveva a che vedere con questo argomento.

Il difensore ha riconosciuto di aver omesso di controllare il contenuto delle sentenze emerse a fronte dell’interrogazione del sistema di AI, e ha chiesto venissero stralciate. A questo proposito, ha evidenziato che, a suo avviso, la propria tesi era già sufficientemente sostenuta da argomentazioni spese nella fase precedente del procedimento.

Responsabilità processuale - La condotta della difesa del rivenditore è stata oggetto di domanda di responsabilità processuale aggravata (articolo 96 del Codice di pocedura civile), sostenendo che essa avrebbe influenzato la decisione del Tribunale. Il Tribunale ha rigettato la domanda di responsabilità aggravata, ritenendo che, fermo il disvalore della condotta del difensore, non vi sarebbe né prova di un danno causato dall’utilizzo delle sentenze in questione né malafede nella loro citazione, in quanto trattasi di sentenze a sostegno di una tesi difensiva già impostata sin dall’inizio del procedimento.