Scrivo questo articolo per via di un evento dove dovrò confrontarmi con un centinaio di adolescenti su tecnologia, intelligenza artificiale, affettività. In fondo una sintesi del progetto e la mia lettera agli studenti.
(no, non mi sento preparato)
Avevo già provato a mettere in fila i problemi dell’AI generativa ma l’elenco è lungi dall’essere completo. Fra le tante lacune, forse quella che ho più sottovalutato è la relazione affettiva che le persone possono contrarre con un chatbot. Soprattutto giovani e adulti in condizioni di fragilità.
Testate come New York Times12, Wall Street Journal3 e varie altre4 che si occupano di tecnologie, raccontano storie tragiche di persone che sono state indotte al suicidio o a gravi alterazione del comportamento. Leggere le chat recuperate in seguito a questi eventi funesti è profondamente disturbante. Il racconto del sedicenne che mostra a ChatGPT la foto del livido procurato dal cappio in una prova di suicidio lascia sgomenti.
Non si pensi che si tratti di casi isolati. Gli epiloghi tragici sono la punta dell’iceberg. Character.AI è un’azienda specializzata nella creazione dei cosiddetti “AI companion”, personaggi virtuali che gli utenti possono creare per intrattenersi in conversazioni di vario genere. Se Character.AI si è vista costretta a chiudere l’accesso della piattaforma agli under-18 il problema non può che essere di vaste proporzioni:
Character.AI sta chiudendo l’accesso [ai giovani], per problemi inerenti alla salute mentale. Gli adolescenti sono sconvolti: “Ho pianto per giorni”. 5.
Save the Children ha appena pubblicato l’Atlante dell’infanzia (a rischio) in Italia 2025 all’interno del quale si trovano anche gli esiti di una ricerca campionaria svolta su 800 adolescenti e 1359 adulti da cui emerge una realtà preoccupante:
Ma c’è un dato che mette ancor più in evidenza la funzione di conforto emotivo che può essere esercitata dalle piattaforme di AI. Il 41,8% degli adolescenti intervistati si trova infatti molto o abbastanza d’accordo con questa affermazione “Mi è capitato di chiedere aiuto a ChatGPT o ad altri strumenti di Intelligenza Artificiale in momenti in cui mi sentivo solo / triste / ansioso”. Una percentuale simile, il 42,3%, si rivolge a ChatGPT o ad altri strumenti di Intelligenza Artificiale per chiedere consigli su scelte importanti da fare (relazioni, sentimenti, scuola o lavoro).
La descrizione completa della ricerca si trova in XVI Atlante dell’Infanzia a rischio – Bonus Track, p. 28.
Mi trovo coinvolto in un evento dove dovrò confrontarmi con un centinaio di adolescenti su questi temi. Di seguito una sintesi del progetto e la mia lettera agli studenti.
Il progetto
Il progetto “Lazzaretto Hospes 2025-2026 Lo hai mai fatto? Parliamo d’amore”, coordinato dalla Dott.ssa Carmen Caccioppoli, Referente per le attività didattiche e culturali del Museo delle Arti Sanitarie di Napoli, e patrocinato da Unesco, prende le mosse dal Dossier L’educazione affettiva e sessuale in adolescenza: a che punto siamo?, pubblicato il 12 febbraio 2025 da Save the Children. È costituito da una serie di 5 incontri con un centinaio di studenti di tre scuole secondarie di Napoli che si svolgeranno presso la Sala del Lazzaretto dell’ex Ospedale di S. Maria della Pace. Gli incontri vertono su aspetti specifici inerenti al progetto, secondo il seguente programma:
- Educazione alle emozioni: riconoscerle per imparare a gestirle — 18/11/25
Dottor Alberto Vito, Resp. U.O.S.D. Psicologia Clinica A.O. Ospedali dei Colli - Amor c’a nullo bot amar perdona — 10/12/25
Andreas Formiconi - L’amore al tempo dei social: sexting, cybersex, pornografia on line. Il consenso e la violenza di genere — 6/2/26
Dottor Francesco Cerullo, Sostituto Procuratore presso il Tribunale per i minorenni di Napoli - “Amore? Sicuro! Conoscere e prevenire le malattie sessualmente trasmesse — fine febbraio
Dott.ssa Antonia Mariniello, psicologa-psicoterapeuta presso AORN dei Colli di Napoli, Ospedale Cotugno e il Dottor Massimo Sardo, infettivologo Dirigente medico presso AORN dei Colli di Napoli, Ospedale Cotugno - Restituzione studenti — fine marzo
La lettera agli studenti
Amor c’a nullo bot amar perdona
Cari studenti, si può dire che nell’era dei social voi ci siete nati. Quando siete diventati consapevoli del mondo che vi circonda, i Social erano una realtà relativamente consolidata: in Italia Facebook è comparso nel 2008, Instagram nel 2010, TikTok nel 2018. Nel 2018 avevate ancora età comprese fra 9 e 11 anni. Vantaggi, svantaggi e pericoli dei social sono ancora oggetto di dibattito ma i fatti essenziali sono stati messi a fuoco. Diverso è il caso dell’Intelligenza Artificiale, assai più recente (2023) e con un impatto sulla maggior parte delle attività umane che non ha precedenti. La velocità con cui sta trasformando profondamente il Web, e quindi la vita di ciascuno di noi, pone in seria difficoltà tutte le organizzazioni e le istituzioni, incluse quelle scolastiche nelle quali voi state vivendo. Ma anche la nostra sfera individuale viene profondamente influenzata da questa rivoluzione. Ricordo che già l’anno scorso mi è capitato di sentire un’intervista a un gruppo di allievi della scuola media dove una ragazza disse che non saprebbe come fare senza intelligenza artificiale. Oppure il caso di un sondaggio a studenti universitari dove una risposta diceva di considerare ChatGPT il proprio “confidente psicologico”. Possono essere casi isolati ma sono segni che fanno riflettere e noi vorremmo riflettere su questi temi con voi perché le vostre sensazioni e i vostri pareri sono importanti.
Lo scenario esprime una grande incertezza: da un lato questi strumenti sembrano rispondere magicamente, al punto da indurre taluni a considerarli senzienti, dall’altro possono commettere errori disarmanti. Sono tante le domande che suscitano. L’Intelligenza Artificiale risponde sensatamente a una vasta quantità di domande ma quanto ci possiamo fidare che dica il vero? Può sbagliare? Se sì, quanto spesso? Formula discorsi sorprendentemente coerenti ma è effettivamente capace di ragionare? Qualcuno dice di intravedere nelle sue risposte manifestazioni di autoconsapevolezza, ma possiamo davvero ritenere che abbia coscienza di sé, in qualche modo? Sempre più persone la utilizzano come una sorta di confidente, ma pensiamo veramente che l’Intelligenza Artificiale possa assumere il ruolo di uno psicologo? Ci sono casi di persone che interagendo spesso con un chatbot sviluppano una forma di affettività , ma davvero possiamo pensare ad un “amor c’a nullo bot amar perdona”? Dante si riferiva non a un bot ma ad un’amata, o amato: se veramente amo l’altro (umano) colei o costui non possono che riamarmi. Ma può un bot amarmi? Cosa vorrà dire mai?
Ci porremo domande di questo genere, voi ne porrete delle altre. Con l’occasione, ci capiterà di approfondire qualche aspetto un po’ più tecnico. Ad esempio, in concreto come fa l’Intelligenza artificiale a produrre i testi? Perché delle volte sbaglia? Che le succede dentro quando sbaglia? Come fa a risolvere un problema matematico complicato per poi non sapere affrontarne uno semplice che potrebbe risolvere anche un bambino di scuola primaria? Perché risponde in modi spesso diversi alle stesse domande?
Insomma, il nostro incontro sarà fatto di domande, in tutti sensi. Non troveremo risposte a tutto ma riflettere insieme forse ci aiuterà.
- Hanno posto delle domande a un chatbot basato sull’intelligenza artificiale. Le risposte li hanno mandati in tilt New York Times, 13 giugno 2025 ↩︎
- Un adolescente era incline al suicidio. ChatGPT era l’amico con cui si confidava. New York Times, 26 agosto 2025 ↩︎
- Un uomo tormentato, il suo chatbot e un omicidio-suicidio nella vecchia Greenwich Wall Street Journal, 28 agosto 2025 ↩︎
- ChatGPT Now Linked to Way More Deaths Than the Caffeinated Lemonade That Panera Pulled Off the Market in Disgrace Futurism, 11 novembre 2025 ↩︎
- Teens Are Saying Tearful Goodbyes to Their AI Companions Wall Street Journal, 24 novembre 2025 ↩︎
Scusa: l’intestazione del post (che non rinnego) è stata decisa da WordPress. Io sono Francesco Valotto, sono stato un tuo studente qualche anno fa (nei Mooc) e sono quello strano psicologo che però faceva il programmatore e per la primaria aveva creato SusyDiario…. Chissà se ti ricordi
Sì sì, ti avevo riconosciuto, mi ricordo bene di te 🙂
Mi trovo allineato al 100% con il tuo programma, ma penso che tu lo abbia scritto pensando agli insegnanti e non a ragazzi di 15/18 anni. Temo che dopo 10 righe si perdano, si addormentino o si distraggano guardando la serie TV che stanno seguendo sullo smartphone.
La mia parola d’ordine in questi casi è “semplificare”. Frasi brevi e lapidarie (soggetto, verbo, complemento). Senza costruzioni che (ahimé!) appaiono ormai arcaiche come “ci possiamo fidare che dica il vero?” (dice fesserie?). “al punto da indurre taluni a considerarli senzienti,” (c’è chi pensa siano intelligenti, tu?). “interagendo spesso con un chatbot sviluppano una forma di affettività” (si innamorano dell’AI con cui chattano). Etc etc.
Lo so che è giusto come lo scrivi tu (sono un appassionato delle parole!) ma ho provato a fare seminari a liceali su argomenti vicini (non AI: social, odio in rete, bullismo, ecc.) e ricordo i volti straniti e le palpebre che calavano…
Innanzitutto grazie. Il tuo commento è prezioso. In effetti il testo è diretto forse più agli insegnanti che ai ragazzi. Lo abbiamo dovuto scrivere per loro in modo che poi lo discutessero con i loro allievi a scuola, la settimana prima dell’incontro. Poi in presenza sarà un’altra cosa. Ho fatto laboratori anche con bambini di primaria e tendo ad adattare completamente il linguaggio al contesto. A dire il vero, anche con gli studenti universitari sono noto per non utilizzare un linguaggio accademico ma semplice e dialogante. Vedremo… darò feedback 🙂
Con gli adulti abbiamo giocato sugli “abbagli”: intelligenza, creatività, lingue diverse, analizzando questi concetti, per quanto possibile, nella loro complessità, inoltre mettendoli in contrapposizione con il funzionamento della macchina: ad esempio le diverse definizioni filosofiche nel tempo, le intelligenze multiple; la scelta casuale del nome AI e il deeplearning tra errori e correzioni. Subito dopo una sorpresa: l’AI parla il dialetto locale! Quale? Come? Con quali limiti? Nel testo abbiamo trovato quasi un pasticcio, ma intanto ci siamo fermati a riflettere, ampliando anche l’analisi verso un recupero degli errori: chissà se nella mia parlata esiste questo detto? Per la creatività, dopo LLM con qualche verso “ poetico” inventato cambiando la temperatura, una pagina ( atto secondo, quarta scena) di Carlo Goldoni, la Locandiera: c’è un algoritmo, ma l’invenzione artistica-emozionale sta in un particolare insignificante posto all’inizio della scena. La tua mail prof. Andreas, che invitava a trovare i limiti per capire il tipo di intelligenza della macchina, ci ha guidati: abbiamo chiuso con l’AI Act dell’Europa e le vive preoccupazioni dei presenti per le giovani generazioni. All’Università popolare eravamo in gran parte nonni.
non basta rimanere umani, dobbiamo rimanere individui e non parte di una marmellata nella quale perdiamo la nostra identità, diventiamo parte di una tribù che si identifica in simboli rappresentativi superficiali, quali tatuaggi e piercing che sembrano definire l’anticonformismo e definiscono invece la fragilità e la solitudine