sito

storico

Archivio storico

                   5permille

   

di Daniela Piana e Gaetano Viciconte

Il Dubbio, 23 ottobre 2023

Nel corso degli ultimi cinque anni il settore del diritto e della giustizia è stato attraversato da un fenomeno particolarmente diffuso e di portata ancora largamente inesplorata, derivato dalla combinazione di due fattori: da un lato, la disponibilità, spesso in open access, di dati di carattere statistico sociale, economico, commerciale e di documenti di tipo giuridico e giudiziario in formato digitale; dall’altro lato la fruibilità di tecniche di matematica applicata e di scienza dell’informazione unita allo sviluppo di macchine dal potenziale di calcolo in crescita esponenziale. Una narrativa che tende a semplificare molto questo processo di trasformazione dei servizi giuridici e del mondo della giustizia parla di intelligenza artificiale applicata alla giurisdizione, di giustizia algoritmica, di giustizia digitale, o, utilizzando un termine molto diffuso nel mondo anglosassone, di legaltech.

Alcune premesse di carattere empirico, ineludibili, sono da porre come punto di partenza di un percorso che ha come chiaro obiettivo quello di qualificare l’avvocatura istituzionale quale baluardo - soprattutto nell’interazione fra cittadino e giurisdizione - dei diritti fondamentali nella società digitale.

Tre premesse sul ruolo dell’avvocatura nell’uso della IA - La prima premessa attiene al fatto che la competenza tecnica e specializzata che è all’origine e che si potenzia attraverso le azioni di progettazione e sviluppo di dispositivi di automazione e intelligenza artificiale (simbolica, statistica, generativa, solo per elencare qui le tre metodologie matematiche utilizzate nel mondo dell’IA) è detenuta in modo asimmetrico e largamente oligopolistico da attori di mercato.

La seconda premessa riguarda il fatto che, mentre alla tecnologia e in particolare all’IA si chiede di proporre una organizzazione di fatto standardizzata e convergente sulla tipologia mediana del fruitore di tali strumenti, la difesa dei diritti della persona deve avere la capacità di cogliere i bisogni e le barriere incontrate nella tutela di quei diritti dai cittadini e dalle personalità giuridiche di tipo economico e sociale, privatistiche e di terzo settore, che non si posizionano nel punto medio della ipotetica curva di distribuzione dei profili socioeconomici delle parti nei contenziosi. In altri termini, è ben possibile che la standardizzazione non temperata e non sottoposta a una vigile supervisione dell’avvocatura induca un innalzamento delle barriere nel momento in cui le persone si trovino a interagire con una giurisdizione “aumentata” dall’integrazione dell’IA.

Infine, la terza premessa punta i riflettori sul fatto che per, poter presidiare, occorre conoscere. E per poter integrare, occorre governare. È dunque essenziale che l’avvocatura si appropri di tutte le competenze che servono per sottoporre - perché occorre sottoporre - l’IA a un puntuale controllo sia nella fase di progettazione sia nella fase di utilizzo. Avendo esattamente queste premesse come perimetro di riflessione, vanno considerate le specificità dell’Avvocatura nella giurisdizione e in interazione con la giurisdizione.

Dalla Federazione Ordini Forensi europei, le linee guida sull’IA - Tre aspetti ci appaiono mostrare, nel concreto della esperienza professionale, alcune delle prospettive aperte dall’IA e delle potenziali domande di garanzia rafforzate, oltre che di creazione di una cultura istituzionale diffusa capace di valorizzare la professionalità come presidio dei diritti fondamentali. Si pensi ad esempio al fatto che la capacità dei sistemi di intelligenza artificiale generativa (GenAI) di produrre ricerche su precedenti, di formare scritti difensivi, o addirittura immagini di possibili discussioni orali da replicare in dibattimento, impone adeguate riflessioni sui nuovi scenari di responsabilità nell’esercizio della professione forense correlati all’utilizzo di tali strumenti. Sappiamo che è giunta immediatamente dagli Stati Uniti l’eco di un primo caso emblematico in cui è stato sanzionato un avvocato che aveva presentato a una Corte distrettuale federale un “legal brief” predisposto da Chat Gpt, in cui erano riportati precedenti inesistenti, frutto evidentemente di allucinazioni del sistema (di tale vicenda si occupa nello specifico un altro servizio del giornale, ndr). È proprio il tema delle responsabilità correlate all’impiego di questi sistemi in ambito legale che ha determinato la Commissione Nuove tecnologie della Fédération des Barreaux d’Europe a elaborare, nel giugno scorso, sette linee guida per garantirne un uso responsabile e informato, con l’obiettivo di salvaguardare gli standards etici e di proteggere la riservatezza del cliente. Le linee guida riguardano la comprensione della tecnologia, la consapevolezza delle sue limitazioni, l’aggiornamento sulle normative, l’integrazione con le competenze umane, il rispetto del segreto professionale, la protezione dei dati personali e la comunicazione trasparente con i clienti.

Riteniamo che abbia una particolare significatività, questa elaborazione e la diffusione di linee guida per la progettazione e l’utilizzo degli strumenti di tecnologia avanzata applicata che si avvalgono di intelligenza artificiale nel mondo forense. I riferimenti fatti dalle linee guida della Ccbe sono concreti e direttamente attinenti alla operatività quotidiana: la generazione di testi, la gestione documentale e la - grazie a questo possibile - elaborazione da documenti di dati e contenuti sintetici; le chat bot; le applicazioni delle tecniche di blockchain e in generale tutte le forme di smart contract; la elaborazione di applicativi capaci di ottimizzare, anche con l’ausilio della automazione, il lavoro quotidiano degli studi.

Perché si dovrà garantire un ruolo all’avvocatura istituzionale - L’impatto dell’utilizzo dei sistemi GenAI sui profili di responsabilità professionale, derivanti sia dalle allucinazioni descritte sia dalle difficoltà di rendere intellegibili agli utenti i criteri di addestramento dei medesimi sistemi, ha indotto il legislatore Ue ad attivare, nel settembre 2022, l’iter di approvazione di una proposta di direttiva sulla Responsabilità da intelligenza artificiale, in parallelo rispetto al procedimento legislativo già in atto che riguarda la proposta di regolamento europeo che stabilisce norme armonizzate sull’Intelligenza artificiale. Le linee guida della Fbe anticipano in parte i temi della proposta di direttiva sulla responsabilità IA, in modo coerente con il contenuto di quest’ultima, delineando un paradigma che vedrà come destinatari non soltanto il produttore del sistema e l’avvocato che trae vantaggio dall’utilizzo del sistema, ma anche il cliente che riceve una protezione indiretta dal rispetto delle regole fissate per gli altri due soggetti.

Nello specifico, l’avvocato deve utilizzare il sistema sotto la propria responsabilità, osservando le istruzioni fornite dal produttore, senza modificarlo, senza alterarne il funzionamento e inoltre senza introdurre dati di input diversi. Un discorso a parte merita l’obbligo di informazione dei destinatari finali sull’uso di GenAI nello studio legale. Le linee guida di Fbe invitano l’avvocato a rendere noto in modo chiaro ai clienti non soltanto l’ utilizzo di GenAI, ma anche il relativo scopo, i vantaggi, le limitazioni e le garanzie. L’avvocato deve assicurarsi che i clienti comprendano il ruolo di questa tecnologia nelle loro questioni legali, specificando se questi strumenti vengono utilizzati per ricerche o per ulteriori attività. È auspicabile, tuttavia, che in tempi rapidi, in sede di revisione del Codice deontologico, si affronti, unitamente al tema del rapporto avvocato-cliente, trattato dalle linee guida, anche quello concernente la salvaguardia della correttezza del rapporto avvocato- magistratura, che deve essere improntato alla stessa trasparenza informativa, al fine di evitare il ripetersi del caso statunitense in cui le allucinazioni dello strumento hanno finito per minare in modo irreparabile l’efficacia della difesa.

Cosa farà la differenza? Se le linee guida sono concrete ma al contempo capaci di pertinenza in via trasversale alle diverse realtà della Avvocatura italiana, la dimensione degli studi, la capacità di internalizzare lo sviluppo digitale di dispositivi che siano approntati per lo studio, la professionalizzazione continua saranno fattori che interverranno nelle trasformazioni attese nel prossimo futuro.

Ma vi è qualcosa che riteniamo farà ancor più la differenza, per l’effettività delle tutele del cittadino nella giurisdizione: la attiva, regolare, strutturata e orientata empiricamente partecipazione dell’Avvocatura istituzionale alla progettazione digitale che ha un diretto impatto d’uso nella giurisdizione. Il co-design non sarà più un’opzione fra molte quanto piuttosto la via necessaria per la effettività delle garanzie.

Conclusivamente, si può ritenere quale ideale norma di chiusura dell’ordinamento in tale ambito la linea guida n. 4 di Fbe, in cui si esorta l’avvocato a non utilizzare mai l’intelligenza artificiale per sostituire il proprio giudizio professionale, la propria capacità critica e la propria competenza. Il messaggio corretto legato all’utilizzo di siffatti strumenti è che esiste una discrezionalità professionale di tipo valutativo, per la soluzione di questioni sia tecniche sia etiche, a cui non si potrà mai rinunciare, affidandosi esclusivamente a questo tipo di pratica.