di Tiziana Roselli
Il Dubbio, 30 aprile 2026
Negli Stati Uniti due decisioni opposte riaprono il nodo della riservatezza: affidare un caso a un chatbot può esporre dati sensibili e indebolire la difesa. La tentazione è forte: aprire una chat, digitare una domanda, raccontare il proprio caso. L’intelligenza artificiale risponde in pochi secondi, con apparente competenza e tono rassicurante. Ma quella conversazione, così spontanea, potrebbe non restare privata e, anzi, finire in un’aula di tribunale. È quanto emerge da una recente vicenda riportata da Reuters, che sta già producendo effetti concreti nella pratica forense statunitense.
Negli Stati Uniti, una decisione del giudice federale Jed Rakoff ha stabilito che le conversazioni tra un imputato e un chatbot non sono coperte dal segreto professionale e possono essere acquisite dai pubblici ministeri. Il caso riguarda Bradley Heppner, ex dirigente di una società finanziaria fallita, accusato di frode e coinvolto in un procedimento penale nel quale aveva utilizzato Claude per elaborare documenti successivamente condivisi con i propri legali. Secondo il giudice, non può esistere alcun rapporto avvocato-cliente tra un utente e una piattaforma di intelligenza artificiale, con la conseguenza che i contenuti generati non beneficiano delle tradizionali tutele.
La decisione ha avuto ricadute immediate. Numerosi studi legali hanno iniziato a inviare comunicazioni ai clienti per metterli in guardia dall’uso disinvolto dei chatbot, evidenziando come la condivisione di informazioni sensibili con sistemi di terze parti possa determinare la perdita della riservatezza. In alcuni casi, tali avvertenze sono state inserite direttamente nei contratti professionali. Il timore è che i dati immessi nelle piattaforme possano essere richiesti e utilizzati in giudizio. Il quadro resta comunque incerto.
Nello stesso periodo, il giudice Anthony Patti ha adottato una decisione di segno opposto, escludendo l’obbligo di consegna delle chat con ChatGPT in un contenzioso di lavoro e qualificandole come materiale preparatorio personale. Due orientamenti divergenti che mettono in luce l’assenza di un quadro giuridico consolidato e la difficoltà di ricondurre l’intelligenza artificiale alle categorie tradizionali del diritto probatorio.
Le condizioni d’uso delle principali piattaforme, tra cui OpenAI e Anthropic, prevedono la possibilità di trattamento e condivisione dei dati degli utenti e raccomandano espressamente il ricorso a professionisti qualificati per consulenze legali. Un elemento richiamato anche nel corso delle udienze, a sostegno della tesi secondo cui non esiste una ragionevole aspettativa di riservatezza nelle interazioni con tali strumenti. Considerare questa vicenda come un’anomalia americana sarebbe riduttivo. Il tema investe tutti gli ordinamenti giuridici, Italia inclusa.
Il segreto professionale, pilastro del rapporto tra avvocato e assistito, presuppone infatti una comunicazione tra soggetti qualificati all’interno di un perimetro giuridicamente protetto. L’intelligenza artificiale, per quanto evoluta, resta uno strumento: non è un soggetto giuridico, non è vincolata da obblighi deontologici e non offre garanzie di riservatezza assimilabili a quelle del rapporto difensivo. Eppure, nella pratica quotidiana, sempre più persone (non solo tra i non addetti ai lavori) tendono a utilizzare questi sistemi come interlocutori affidabili. È proprio in questo scarto tra percezione e realtà che si apre una frattura pericolosa.











