di Gabriele Segre
La Stampa, 29 aprile 2026
Le big tech raccolgono dati e li trasformano in decisioni, mentre le scelte politiche scompaiono. Consegnare polli surgelati e lanciare missili è, in fondo, la stessa cosa. Potrebbe benissimo essere questo il ragionamento di Shyam Sankar - direttore tecnologico di Palantir e gran sacerdote del profeta-tech Peter Thiel - quando spiega che una catena del valore, un processo produttivo e un’operazione di targeting mirato rispondono alla stessa logica di accelerazione e ottimizzazione. Ha ragione: viviamo nell’epoca in cui la capacità di calcolo ha ridotto l’errore fino a farlo sembrare una superstizione d’altri tempi. Le big tech raccolgono dati, li incrociano, li assimilano, li digeriscono e li restituiscono sotto forma di decisioni impeccabili e chirurgiche: cosa comprare, chi assumere, chi licenziare, chi fermare alla frontiera. Nonché quale bersaglio colpire e quando. Una specie di oracolo industriale alimentato da server e contratti miliardari che, appaltato al Pentagono, sviluppa un leggero complesso di onnipotenza.
L’operazione “Epic Fury” in Iran ne è stata la dimostrazione spietata e, insieme, più spettacolare. Mille obiettivi colpiti nelle prime ventiquattr’ore di guerra. Un’elaborazione strategica che nel 2003, durante l’invasione dell’Iraq di Saddam, richiedeva sei mesi di pianificazione e cinquanta analisti a tempo pieno, oggi può essere compiuta da un solo operatore in appena due settimane. “L’algoritmo del pollo surgelato” deve solo cambiare funzione, dall’ottimizzare una logistica al distruggerla: sa dove si trova un convoglio, misura la traiettoria di un missile, localizza un comandante, conta i movimenti di truppe al confine, distingue un camion civile da uno militare a tremila metri di quota. Non sa, però, come evolve la paura dopo una sconfitta. Non riesce a valutare il peso di un’umiliazione su una società. Non sa chi diventerà più radicale dopo la morte di un leader, di un fratello o di un figlio. Non può capire il silenzio di chi non risponde.
Il tratto più brutale e sconvolgente di questo tempo è tutto qui: mentre il calcolo tecnico tende alla perfezione, quello politico si perde nella nebbia. Non che un fenomeno dipenda necessariamente dall’altro, ma la loro concomitanza è impressionante. Da una parte cresce la capacità di leggere il dato e si riduce il margine d’errore; dall’altra si contrae la conoscenza politica, si opacizza lo scenario e si restringe la capacità umana di coglierne il significato. Sappiamo di più, ma comprendiamo meno. È in questa dissociazione cognitiva che si colloca la telenovela delle trattative tra Stati Uniti e Iran. Washington twitta, Teheran risponde, i mediatori traducono, le televisioni spiegano, gli esperti abbozzano con imbarazzo, nessuno ci capisce davvero niente. A partire dai fondamentali: chi sta parlando con chi e cosa si stanno davvero dicendo? Il regime iraniano è compatto o spaccato? I pragmatici contano qualcosa o sono comparse sopravvissute in un teatro diretto dai Pasdaran? Chi ha titolo per firmare? Chi ha il potere di far rispettare la firma?
L’algoritmo ha funzionato così bene che “abbiamo fatto fuori anche quelli con cui pensavamo di poter trattare”, ha ammesso con disarmante candore Trump. In un click, polverizzati decenni di intelligence umana capace non solo di capire chi comandava, ma cosa pensava, sperava, temeva. Del resto, a che serve conoscere l’avversario se puoi vaporizzarlo in pochi secondi? Ha quasi senso aver chiuso l’ufficio dedicato all’Iran al Dipartimento di Stato, lasciando a casa decine di esperti che passavano la vita a fare gli psicologi degli ayatollah. Roba analogica, vintage.
Il rimpicciolimento dell’intelligence umana non riguarda però solo l’Iran. La Cina di Xi Jinping è oggi altrettanto impenetrabile. Per noi, per gli americani, ma perfino per molti cinesi. Qui non sono stati i bombardamenti a tappeto a distruggere la comprensione del contesto: ci ha pensato Xi con le sue purghe e con le purghe delle purghe, un genere politico che concentra il potere e trasforma ogni analisi esterna in astrologia applicata. L’algoritmo del pollo, anche qui, sa rintracciare ogni portaerei cinese, contare ogni testata, intercettare ogni comunicazione classificata. Ma non sa chi goda ancora della fiducia del capo, come funzioni oggi la macchina decisionale, né se a tenere il timone siano quelli che vogliono una Cina stabile e responsabile o quelli che preparano la guerra con l’America per interposta Taiwan.
Il parossismo del divorzio tra perfezione tecnologica e cecità politica si raggiunge però quando smettiamo di capire non solo gli altri, ma noi stessi. La medesima domanda che ci poniamo su Teheran, Pechino o Mosca - chi decide davvero, e che cosa vuole? - vale oggi anche per Washington. Non nel senso scontato per cui Trump è il pazzo imprevedibile a cui vanno tolti i codici nucleari. La questione è più strutturale: tra smantellamento della macchina federale, disinvestimento sulle competenze strategiche e potere crescente degli attori privati come Palantir nella definizione dell’agenda pubblica, chi decide davvero a Washington è sempre meno chiaro. È così che una grande potenza come gli Stati Uniti finisce per sapere esattamente dove, come e quando colpire, ma non sapere più bene perché lo fa.
Alla fine siamo entrati nell’era del calcolo perfetto proprio mentre smarrivamo ciò che ci rende umani: memoria, giudizio, conoscenza dell’altro, comprensione di sé. Tra dataset, modelli predittivi e altre liturgie statistiche, il mondo, con una maleducazione imperdonabile, si ostina a non comportarsi come un file ordinato. Eppure, continuiamo imperterriti a migliorare il modello invece di farci qualche domanda in più sulla realtà.











