di Martina Pennisi
Corriere della Sera, 9 aprile 2026
Fractured reality, il rapporto pubblicato dal Joint Research Centre (JRC) della Commissione europea firmato dall’italiano Quattrociocchi, ricostruisce le dinamiche dell’informazione online ed evidenzia i nuovi rischi. Ribaltare l’approccio usato in passato (con i social media) per affrontare un presente ancora più incalzante e impegnativo (con l’Intelligenza artificiale). E difendere la democrazia. È quello che si propone, e propone, di fare Fractured reality, il rapporto pubblicato dal Joint Research Centre (JRC) della Commissione europea. Fra gli autori anche l’italiano Walter Quattrociocchi, professore di Informatica alla Sapienza Università di Roma, dove dirige il Center of Data Science and Complexity for Society.
La conclusione è chiara: non sono state le singole fake news diffuse sui social a minare il dibattito pubblico, in questi anni, ma l’intero sistema informativo basato sull’economia dell’attenzione che contribuisce alla creazione di contenuti eterogenei che confondono e rendono sempre più difficile orientarsi. Un sistema che ci ha scaraventato all’interno di un “fantasy-industrial complex”, come lo definiscono gli autori dello studio, in cui “l’obiettivo della manipolazione dell’informazione […] non è far credere agli individui determinate affermazioni false, ma distrarre e generare sfiducia, e attivare norme, istinti e comportamenti anti-democratici e autoritari”.
In una parola: il caos - I passi che ci hanno portato fino a qui sono noti, ma è utile ripercorrerli. Spiega il rapporto: “L’economia dell’attenzione […] privilegia contenuti che minacciano la democrazia perché l’attenzione umana favorisce informazioni negative, emotive e conflittuali”. La collisione fra la natura umana e il modello di business di Facebook e dei suoi discendenti ha dunque fatto sì che sulle piattaforme la qualità dell’informazione sia passata in secondo piano rispetto alla capacità di trattenere l’utente e generare engagement.
È così che si sono sviluppate le dinamiche che hanno segnato gli ultimi anni, e che sono state descritte anche dagli studi di Quattrociocchi: polarizzazione, echo chamber e, più recentemente, la frammentazione in echo platform. Si passa da “gruppi relativamente chiusi all’interno delle piattaforme, che creano e rinforzano identità opposte e hanno svolto un ruolo cruciale nella diffusione dei contenuti dannosi” - le eco chamber, a “ecosistemi informativi più ampi e separati”, in cui la migrazione di gruppi di utenti ha portato alla creazione di “ambienti socio-politici in cui la demografia degli utenti, i contenuti e le narrazioni sono allineati sia per progettazione sia per auto-selezione” - le echo platform.
Si perde così un terreno informativo comune e, sottolineano gli autori dello studio, “le istituzioni democratiche […] non possono sopravvivere senza un certo grado di realtà condivisa”. Ed è qui che si innesta il “fantasy-industrial complex”, un sistema “auto-organizzato e debolmente coordinato”, che non ha bisogno di un centro unico per produrre e diffondere narrazioni. Spiega il lo studio: “La situazione attuale è una miscela di disinformazione, misinformation, inganno, informazioni fuorvianti ed elementi di verità”.
L’Intelligenza artificiale generativa può diventare un ulteriore amplificatore: gli autori citano uno studio basato su 466.769 affermazioni generate da modelli di AI che mostra un “compromesso preoccupante, in cui una maggiore persuasività si basa su contenuti meno accurati dal punto di vista fattuale”. Questo avviene perché la tendenza degli Llm a proporre un testo fluido e convincente può semplificare eccessivamente, distorcere o aggiungere informazioni plausibili ma non accurate.
Anche nel caso dell’AI, il rischio principale non è la generazione di notizie false ma la creazione “dell’illusione di conoscenza, soprattutto quando è combinata con i social media” che può degradare “ulteriormente il senso di realtà condivisa”. Si legge: “L’integrazione diretta o indiretta dell’IA generativa nei potenti siti di social media crea quindi una trappola cognitiva sempre più rilevante: l’illusione di conoscenza creata dalla fluidità linguistica di un Llm, dalla sua onnipresenza e dai video realistici non risolve realmente le lacune informative, ma dà comunque all’utente la sensazione che quelle lacune siano state colmate. Combinato con i modelli di business delle piattaforme, questo crea le condizioni per un regime informativo nuovo e distinto, definito “epistemia”. L’epistemia abbassa la soglia di responsabilità nella creazione di contenuti e può favorire un falso senso di competenza negli utenti”.
Cosa fare? Cosa non fare, innanzitutto: come sottolinea Quattrociocchi, “non si può pensare di affidarsi solo al cosiddetto debunking delle notizie false”. Fra le soluzioni, il rapporto richiama il ruolo dell’Europa, vista come uno degli attori in grado di intervenire su un ambiente informativo oggi dominato da piattaforme e infrastrutture controllate da soggetti esterni. Gli autori sottolineano inoltre la necessità di creare “nuovi spazi di realtà condivisa, anche nel mondo fisico, che non dipendano dall’economia dell’attenzione” e la possibilità di intervenire sul funzionamento degli algoritmi e sul design delle piattaforme.











