di Franco Giubilei
La Stampa, 1 settembre 2025
“L’intelligenza artificiale non può essere il miglior amico di un ragazzino, perché gli dà sempre ragione e non è una persona. Il fatto è che bisogna insegnare a usarlo, questo strumento potentissimo”. Don Andrea Ciucci, coordinatore della Pontificia accademia per la vita, è anche segretario generale della Fondazione vaticana RenAIssance per l’etica dell’intelligenza artificiale. Sui temi toccati nell’editoriale di ieri dal direttore de La Stampa Andrea Malaguti - lo spunto è il racconto di una madre del rapporto esclusivo del figlio 13enne con un chatbot, al punto da definirlo “il suo miglior amico”, appunto -, ha idee precise: “Il suo attaccamento all’Ai denuncia una fatica relazionale, e questo ragazzino sopperisce col chatbot a un’amicizia che non esiste”.
In più ha solo 13 anni...
“L’età è un elemento su cui riflettere: come è andato ad abitare il mondo digitale così presto, dal momento che probabilmente smanetta già da tempo? Il che porta a un’altra considerazione: come introduciamo i piccoli in quel mondo? La sensazione a volte è di resa totale, se i genitori danno lo smartphone in mano ai bambini che piangono. Salvo poi vietarlo anche per le attività didattiche a scuola... Non li aiutiamo a usare questi strumenti neanche per le cose che servono”.
Intende dire che vanno guidati?
“Ci vuole un essere umano che dica anche dei no, come farebbe un amico vero”.
L’uso dell’Ai è già diffusissimo fra i ragazzi, dobbiamo arrenderci o il fenomeno è ancora gestibile?
“Non è mai troppo tardi, coi ragazzi così come con gli adulti, anche se dobbiamo pagare un ritardo obiettivo. Ben venga allora anche una storia come questa, se ci aiuta a prendere coscienza del problema”.
Come si può ovviare?
“Con uno sguardo corretto: il virtuale fa parte della nostra realtà, la tecnologia non è altro rispetto al mondo, però bisogna imparare a maneggiarla e a conoscerla per quello che è, senza cadere in una retorica tanto pessimistica quanto sterile”.
Ma chi deve intervenire? Gli adulti sembrano essere i primi succubi del digitale...
“È un’operazione da fare insieme: davanti a una trasformazione così radicale e potente è necessario mettersi a un tavolo tutti quanti, famiglie, istituzioni scolastiche, associazioni culturali, religiose e del volontariato. Dall’altro lato, incoraggiare forme di socialità in presenza. Ma poi, ci preoccupiamo dell’impatto della tecnologia sui ragazzi quando il problema in effetti sono gli adulti, come dimostra la lettera del bambino che vorrebbe essere un cellulare, perché “è quello che il mio papà guarda di più”“.
Servono regole più restrittive nell’uso dell’Ai?
“Vengono invocate, ma mettere paletti senza una strada da percorrere non serve a niente. La domanda è: dove vogliamo andare? Che umanità vogliamo? Come pensiamo di gestire un fenomeno globale custodendo le differenze e le peculiarità? Abbiamo una grande occasione, non va sprecata”.
Perché l’intelligenza artificiale è più rassicurante del rapporto diretto con un’altra persona, come nel caso del 13enne?
“Perché è concepita per assecondarci, l’hanno programmata per questo: se mi dà ragione ci vado più volentieri, entro in una comfort zone. C’è uno scopo commerciale in tutto ciò, anche se non è l’unico”.
Può essere utile in chiave educativa?
“Sicuramente sì, a patto di saperla usare. Occorre essere in grado di fare le domande giuste ed essere abbastanza critici da orientarsi fra le infinite risposte che si ottengono. In una scuola che spesso ha privilegiato il nozionismo è proprio questo che bisogna insegnare: a fare le domande. I ragazzi hanno uno strumento potente, ora occorre farlo fruttare”.
Non ci vorrebbe un limite d’età? Forse limiterebbe gli abusi e certe dipendenze...
“Nei social c’è ed è stato amabilmente spazzato via. In realtà mi sta più a cuore come noi introduciamo fin dall’inizio al digitale. Per ogni età è opportuno parlare di certi argomenti e non di altri, il che non è un no secco”.
Resta il fatto che, soprattutto per i giovanissimi, l’Ai può essere molto più tranquillizzante di un confronto diretto, non è così?
“Assolutamente sì, ed è uno dei limiti dell’intelligenza artificiale. Può essere anche una trappola, ma proprio per questo bisogna fornire ai ragazzi gli strumenti per evitarla”.











