Una sintesi di questo blog redatta dall’agente Claude

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


Da molto tempo avvertivo il bisogno di mettere ordine in questo blog dove ho disordinatamente accumulato ricordi e pensieri intorno a tante esperienze didattiche, sia come docente che discente. Ma la pigrizia e l’infantile desiderio di tuffarsi sempre nella prossima avventura me l’hanno sinora impedito, anche perché la mole crescente del materiale (1’186 post dal 2007 ad oggi) mi faceva passare sempre più la già scarsa voglia. Diciamo che ci avevo rinunciato, ma non avevo previsto l’arrivo dell’AI!

Woman hiking in forest with social media comments about blogging, SEO, and tags
Vabbè, così ho provato anche il generatore di immagini di WordPress…

Ebbene, visto che il più delle volte passo il tempo a segnalare trappole e disfunzioni dei Large Language Model ecco invece una storia positiva. Chiariamoci: non sono “contro” l’AI. Mi concentro sulle criticità per contrappeso ad una narrativa dominante distorta e alla percezione comune dell’AI quale intelligenza altra e fonte di riferimento primaria, che è il modo peggiore per affrontarla. Con questo articolo inizio invece a documentare casi d’uso interessanti, prendendo le mosse proprio dal tentativo di recuperare il filo d’Arianna di questo blog.

Continua (15 min)

Quando i miei studenti chiedono all’AI di fare quello che hanno imparato

Questo è il passaggio che nella sua relazione finale Simona Assunta Felice, studentessa di Scienze della Formazione Primaria, ha dedicato alle attività laboratoriali dove abbiamo adoperato l’intelligenza artificiale.

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


L’Intelligenza Artificiale: Specchio o Strumento?

Abbiamo messo alla prova l’Intelligenza Artificiale (ChatGPT e simili) chiedendole di risolvere gli stessi problemi di LibreLogo che avevamo affrontato noi in aula.

Vedere l’AI scrivere in tre secondi netti, con una facilità disarmante, lo stesso codice che a me aveva richiesto due ore di sudore, è stato umiliante. Mi sono sentita improvvisamente obsoleta. Mi sono chiesta con angoscia: “Ma se una macchina lo fa meglio e più velocemente, allora io a che servo? Qual è il valore del mio sforzo?”. Poi, però, abbiamo iniziato ad analizzare i risultati con occhio critico, ed è emersa la verità. L’AI, nonostante la sua velocità, a volte “allucinava” in modo bizzarro.

Continua (1 min)

Ma ci sei o ci fai? Laboratorio di interlocuzione uomo-computer

Un laboratorio con i cittadini presso la Libera Università Valdisieve e Valdarno. Sette incontri tutti i mercoledì dalle 17 alle 19 a partire dal 7 gennaio. Inevitabile discutere di intelligenza artificiale, anzi soprattutto, considerando che sta divorando tutti gli spazi possibili. Ciò nonostante cercheremo di allargare l’orizzonte per riflettere su come ci siamo trasformati da vent’anni a questa parte. L’avvento dell’intelligenza artificiale è recente e dirompente ma ci ha trovati “pronti”, cotti a puntino. Gli incontri saranno dialogati e il filo conduttore sarà fatto di domande che ci porremo a vicenda. Cercheremo di capire quanto siamo consapevoli delle implicazioni di gesti quotidiani che diamo per scontati, naturali quindi innocui. Com’è che consumando ossessivamente merci, informazioni, di tutto, finiamo con essere noi la merce? Com’è che credendo di essere in controllo, artefici del nostro destino, scopriamo di essere invece manipolati e vulnerabili? Come difendersi da un simile maleficio? Non ci sono ricette magiche ma sicuramente un primo tentativo utile è cercare di sapere: individuare contesti e relazioni causali, ove possibile. Non mera informazione ma comprensione, studio.

La dimensione laboratoriale si realizzerà attraverso uno strumento di partecipazione real-time e gli smartphone degli astanti ma anche con un atteggiamento flessibile che consentirà diversioni e approfondimenti imprevisti.

Qui altre informazioni.

Adolescenti e intelligenza artificiale

Ecco il resoconto dell’incontro con un centinaio di adolescenti su tecnologia, intelligenza artificiale, affettività, di cui dicevamo qualche tempo fa (27.11).

Inserisco anche questo articolo nella serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


Il contesto

Il progetto “Lazzaretto Hospes 2025-2026 Lo hai mai fatto? Parliamo d’amore”, patrocinato da Unesco, prende le mosse dal Dossier L’educazione affettiva e sessuale in adolescenza: a che punto siamo? pubblicato il 12 febbraio 2025 da Save the Children. È costituito da una serie di 5 incontri con un centinaio di studenti di due scuole secondarie di Napoli che si svolgono presso la Sala del Lazzaretto dell’ex Ospedale di S. Maria della Pace:

  1. Educazione alle emozioni: riconoscerle per imparare a gestirle — 18/11/25
    Dottor Alberto Vito, Resp. U.O.S.D. Psicologia Clinica A.O. Ospedali dei Colli
  2. Amor c’a nullo bot amar perdona — 10/12/25
    Andreas Formiconi
  3. L’amore al tempo dei social: sexting, cybersex, pornografia on line. Il consenso e la violenza di genere — 6/2/26
    Dottor Francesco Cerullo, Sostituto Procuratore presso il Tribunale per i minorenni di Napoli
  4. Amore? Sicuro! Conoscere e prevenire le malattie sessualmente trasmesse — fine febbraio
    Dott.ssa Antonia Mariniello, psicologa-psicoterapeuta presso AORN dei Colli di Napoli, Ospedale Cotugno e il Dottor Massimo Sardo, infettivologo Dirigente medico presso AORN dei Colli di Napoli, Ospedale Cotugno
  5. Restituzione studenti — fine marzo

In questo articolo si riassumono i risultati del secondo incontro, dedicato all’impiego delle tecnologie.

Continua (20 min)

Amor c’a nullo bot amar perdona

Scrivo questo articolo per via di un evento dove dovrò confrontarmi con un centinaio di adolescenti su tecnologia, intelligenza artificiale, affettività. In fondo una sintesi del progetto e la mia lettera agli studenti.

(no, non mi sento preparato)

Continua (5 min)

Cittadini chiedono, proviamo a rispondere…

Continuiamo a raccontare, ovunque capiti, dalla parrocchia all’università, a quella della terza età, all’associazione scientifica. Raccontiamo non contro, come taluni equivocano, ma per capire. La questione non è essere pro/contro ma sforzarsi di comprendere. Il fatto è che informazione totale equivale a informazione zero. Il desiderio di capire e, conseguentemente, di esercitare il pensiero critico, naufraga miserabilmente nel tutto e contrario di tutto, dove prevalgono le appartenenze e quello che pare dialogo forbito si riduce in realtà a contesa tribale.

E nel cercare di comprendere ci riferiamo sempre e solo agli studi dei massimi esperti, cioè di coloro che l’intelligenza artificiale la costruiscono e sanno meglio di tutti come è fatta dentro.

Solo fatti, dimostrati fino a prova contraria. Niente fuffa.

Dammi un LLM e ti dimostro quel che vuoi, e il suo contrario…

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


Recentemente circolano sempre più notizie sui ritorni irrisori prodotti dagli investimenti in AI, specialmente, anche se non solo, da parte delle imprese più grandi. Uno studio recente del MIT stima siano il 95% le organizzazioni che non registrano ritorni apprezzabili dagli investimenti in tecnologie AI.

Il fenomeno è sempre più evidente quindi si iniziano a cercare le cause: AI-Generated “Workslop” Is Destroying Productivity (Harvard Business Review, settembre 2025). Workslop: contenuto generato con l’AI che all’apparenza si presenta bene, ma poi si rivela privo di sostanza, quindi inutile. Si usa anche la forma verbale: you have been workslopped, ti hanno mollato un pacco, una sciatteria da AI. L’articolo ha rilevato che il 40% su un totale di 1150 impiegati in varie imprese americane lamenta di ricevere workslop. Il problema è macroscopico perché i testi sciatti perfondono il sistema comunicativo delle aziende costringendo altri colleghi a dissipare tempo prezioso nel valutare e correggere, se non riscrivere ex novo, i workslop; di conseguenza viene speso tempo improduttivo e i flussi di informazione si deteriorano. L’articolo ipotizza che la causa sia “AI slop”, sciatteria da AI.

L’AI slop affligge anche noi utenti comuni. Nella stragrande mggioranza dei casi adoperiamo le chat senza un piano B: mi occorre un’informazione che non posseggo, chiedo a ChatGPT (o altro) e uso la risposta. Fine della storia. Gli utenti accorti e consapevoli sono una quantità infinitesima. Inutile girarci attorno. Il problema affligge anche scolari e studenti: ChatGPT vola quando i ragazzi tornano a scuola1. O pensiamo che loro sì, usino l’AI in modo consapevole, attuando verifiche e controlli del caso? O confidiamo che gli insegnanti, che poi sono alcuni di noi, abbiano competenze e strumenti per affrontare un problema del genere?

Ma se la sciatteria è il problema, come valutarne gli effetti? Ebbene, recentemente è uscito un articolo che affronta rigorosamente la questione in un contesto ben definito. Il lavoro è stato proposto in questi giorni da un gruppo di ricercatori dell’Università Bocconi, delle università di Zurigo, Gothenburg, Leiden e dell’Istituto per le Scienze Sociali Leibniz2.

Continua (10 min)

MOOC — Vocabolario artificiale: dalla A alla I

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


I temi principali discussi in questa raccolta di approfondimenti sull’AI sono ora disponibili anche nel MOOC Vocabolario artificiale: dalla A alla I ospitato da Federica WebLearning.

Il MOOC è rivolto a chi ha difficoltà a racapezzarsi nella tempesta di acronimi dell’AI. Spiega in modo semplice i concetti fondamentali che sostengono i Large Language Model (LLM). Non copre tutto ciò che concerne le versioni “thinking”: chain-of-thought, varie forme di reinforced learning ecc. E non copre le altre forme di intelligenza artificiale, meno note ma non meno importanti, di cui ci occuperemo in futuro.

Si concentra solo sui concetti base perché pregi e difetti degli LLM si riverberano su tutto ciò che vi viene costruito sopra: capire i fondamenti serve a porre in una prospettiva corretta tutto il resto.

L’accesso al MOOC è gratuito.

Non cadere nella trappola degli annunci (GPT-5)

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


L’altro giorno mi serviva disegnare un diagramma di una semplice rete neurale. Per fare prima ho chiesto a ChatGPT, anche per provare la versione 5, comparsa il giorno prima.

Questo il prompt:

I need a diagram of a neural network composed by:
Input layer with 2 nodes
Hidden dense layer with 25 nodes
Output layer 1 node
Continua (5 min)

Piccola guida al Transformer Explainer

Fare divulgazione seria su una materia così complessa come l’intelligenza artificiale è difficile. La narrativa dominante è drogata dall’appettibilità giornalistica dell’argomento. Il discorso scientifico muta in racconto fantascientifico perdendo contatto con i fondamenti su cui l’intelligenza artificiale è costruita. Essa diviene soggetto a sé stante, interlocutrice indipendente, addirittura “consapevole”. D’altronde non si può pretendere che tutti abbiano studiato algebra lineare, statistica e informatica.

Il Transformer non è certo l’unico strumento dell’AI ma ha generato l’esplorazione dei Large Language Model, dando le ali alla narrativa ebbra che si diceva. Aggiungo quindi un quarto tentativo (uno, due e tre i precedenti) per illustrarne il funzionamento, questa volta mediante una guida al Transformer Explainer, una bellissima demo sviluppata dai ricercatori del Data Science del Georgia Institute for technology.

L’invito è a giocarci per capire quanto sia difficile regolare un’architettura così complessa che per suo statuto matematico non è fatta per dire il vero ma sempre e solo il plausibile. Quasi tutto ciò che raggiunge il pubblico oggi si basa su questo mattone. Tutto quello che è seguito (“ragionamento”, chain of thought, agenti ecc.) nasconde ma non elimina le fragilità del meccanismo fondamentale. E i nodi vengono al pettine quando all’AI si chiede affidabilità o immaginazione vera, non mera interpolazione dei dati adoperati per l’addestramento. Utilissima ma non altro.