sito

storico

Archivio storico

                   5permille

   

di Antonio Preiti

Corriere della Sera, 4 luglio 2023

Il rischio di favorire i regimi autoritari, perché nel caos del vero e del falso è minata la fiducia reciproca, presupposto della democrazia. D’altro canto, i sistemi di intelligenza artificiale sono il mezzo più efficace per controllare la società. Dobbiamo aver paura di ChatGPT e dell’intelligenza artificiale? Di nuovi apocalittici non ne abbiamo bisogno, però cerchiamo di capire il suo impatto sulla politica. Dobbiamo occuparcene ora, perché la tecnologia “silenziosa e lieve”, tassello dopo tassello, compone un puzzle che nessuno ha disegnato prima e difficile da cambiare dopo.

Quali sono i cambiamenti che ci sono già e quali sono in arrivo? Sul piano operativo l’AI può generare discorsi politici in tempo reale; ottenere una sintesi, per punti, delle opinioni espresse sui social; con l’aiuto di intelligenza umana, può creare un modello previsivo, che la macchina migliora da sé stessa. Può però, in altri modi, cambiare radicalmente la natura della politica.

Può portare il dibattito politico su un terreno artificiale, artificioso e manipolatorio. La politica è fatta di conversazioni: una persona esprime qualcosa, e qualcun altro l’approva o la contraddice. Gran parte di queste conversazioni si svolgono sui social media. Significa che la conversazione è mediata dalla macchina: io vedo quello che l’algoritmo pensa che mi piacerebbe vedere. C’è un semaforo invisibile: questo sì, questo no. Quel che vedo non è tutto (sarebbe impossibile), ma una parte, e quella parte è determinata da un volere terzo, il volere dell’algoritmo. Anche nella vita fisica non tutti parlano con tutti: parte delle conversazioni è voluta e parte è casuale: nel mondo reale viviamo tra caso e necessità.

Allora guardiamo a qualche vicenda preoccupante. Il Wall Street Journal ha fatto un esperimento sul modo in cui funziona l’algoritmo di TikTok. Dimentichiamo i tag di Amazon o di Netflix (hai visto quello, perciò ti può piacere questo), ma guardiamo alla psiche che si manifesta attraverso un’esitazione a guardare uno strano video. Se, ad esempio, il video sembra avere una connotazione depressiva, ne attiverà una valanga di altri con le stesse caratteristiche. Così l’utente entra in una “tana del coniglio” popolata solo da video depressivi. Difficile uscire da quella tana (meglio leggere l’omonimo, splendido, racconto di Kafka…). Si passa dalla ricerca dell’attenzione alla ricerca di una relazione intima con l’utente. Conquistare il cuore e la mente per vendere un prodotto: questo è oggi l’assunto del marketing, non diversa la conquista dell’elettore.

Il presidente filippino Marcos, nelle elezioni del 2022, si è affidato al suo esercito di troll su TikTok per conquistare i voti dei giovani filippini. L’automatizzazione del processo con i bot gli ha consentito di entrare su una piattaforma social che già funziona con un algoritmo guidato dall’AI. Entrare nella mente dei giovani non è facile, ma TikTok ci riesce. A modo suo.

Chi padroneggia il linguaggio (i sistemi tipo ChatGPT sono nati per questo), padroneggia le armi della persuasione. L’umano è fondato sul linguaggio: esprimiamo amore e odio con le parole; esprimiamo sensazioni e pensieri; impariamo e lavoriamo con le parole. D’altro canto “in principio era il Verbo...”, dice la Bibbia. E Wittgenstein aggiunge “i limiti del mio linguaggio sono i limiti del mio mondo”, insomma siamo linguaggio.

Discorsi astratti? lontani? inattuali? Tutt’altro. All’Università di Stanford hanno usato ChatGPT per generare opinioni su questioni politiche controverse da contrapporre a opinioni scritte da esseri umani. Lo studio ha dimostrato che quelle generate dall’intelligenza artificiale sono più persuasive. Immaginate questa capacità di persuasione sommata alle fake news?

Avremmo perciò conversazioni artificiali come trappole (assomigliano al gioco delle tre carte, dove un crocicchio di finti giocatori è intento a recitare la parte in attesa di qualcuno da derubare), insomma tutti i bot dialogano per attirare esseri umani (elettori) nella conversazione; avremmo una capacità persuasiva sul terreno dove l’elettore è più indifeso: quello psicologico.

Questo scenario (se non avesse prontamente una risposta regolativa) finirebbe con il favorire i regimi autoritari, perché nel caos del vero e del falso è minata la fiducia reciproca, presupposto della democrazia. D’altro canto, i sistemi di intelligenza artificiale sono il mezzo più efficace per controllare la società: il “social ranking” cinese è un governo molecolare di massa attraverso la tecnologia. E così il cerchio si chiude: la tecnologia atomizza la società e una società atomizzata è gestibile solo con la tecnologia. Però ci siamo proposti di non essere apocalittici. È uno scenario (ancora) largamente scongiurabile. Ancora.