In evidenza

Approfondimenti sull’AI – Introduzione

Quello che nel mio piccolo sto cercando di fare è di consentire, anche a coloro che sono in poca confidenza con le matematiche, di comprendere un po’ più in profondità alcuni elementi essenziali che sostengono l’AI, in modo da rendersi conto della natura dei problemi che l’affliggono ed essere un po’ più consapevoli di quello che fanno quando ci si avvicinano.

Mi ha spinto non poco in questa imprevista ma divertente avventura constatare la dissonanza fra gli sforzi e le preoccupazioni di coloro che studiano, progettano e programmano l’AI e la proliferazione di “esperti” che propongono corsi a destra e a manca, anche in campi nei quali occorrerebbe la massima prudenza, come quello della formazione, soprattutto dei giovani.

Agisco principalmente 1) studiando articoli scritti da specialisti dell’AI, cioè di coloro che la stanno facendo; 2) recuperando vari attrezzi del precedente mestiere di ricercatore che utilizzavo in tutt’altri campi (nemmeno così lontani, mi sto rendendo conto) e 3) scaricando e provando vari LLM o parti di essi, non per mettere su qualcosa ma per toccare con mano alcune delle cose che studio.

Questi materiali sono distribuiti con licenza Creative Commons Attribuzione-Condividi allo stesso modo 2.5 Italia License: il lettore è libero di ridistribuire materiali basati in qualsiasi maniera su questi contenuti ma deve attribuirne la paternità al sottoscritto utilizzando la stessa licenza.

Indice

Ma ci sei o ci fai? Laboratorio di interlocuzione uomo-computer

Un laboratorio con i cittadini presso la Libera Università Valdisieve e Valdarno. Sette incontri tutti i mercoledì dalle 17 alle 19 a partire dal 7 gennaio. Inevitabile discutere di intelligenza artificiale, anzi soprattutto, considerando che sta divorando tutti gli spazi possibili. Ciò nonostante cercheremo di allargare l’orizzonte per riflettere su come ci siamo trasformati da vent’anni a questa parte. L’avvento dell’intelligenza artificiale è recente e dirompente ma ci ha trovati “pronti”, cotti a puntino. Gli incontri saranno dialogati e il filo conduttore sarà fatto di domande che ci porremo a vicenda. Cercheremo di capire quanto siamo consapevoli delle implicazioni di gesti quotidiani che diamo per scontati, naturali quindi innocui. Com’è che consumando ossessivamente merci, informazioni, di tutto, finiamo con essere noi la merce? Com’è che credendo di essere in controllo, artefici del nostro destino, scopriamo di essere invece manipolati e vulnerabili? Come difendersi da un simile maleficio? Non ci sono ricette magiche ma sicuramente un primo tentativo utile è cercare di sapere: individuare contesti e relazioni causali, ove possibile. Non mera informazione ma comprensione, studio.

La dimensione laboratoriale si realizzerà attraverso uno strumento di partecipazione real-time e gli smartphone degli astanti ma anche con un atteggiamento flessibile che consentirà diversioni e approfondimenti imprevisti.

Qui altre informazioni.

Adolescenti e intelligenza artificiale

Ecco il resoconto dell’incontro con un centinaio di adolescenti su tecnologia, intelligenza artificiale, affettività, di cui dicevamo qualche tempo fa (27.11).

Inserisco anche questo articolo nella serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


Il contesto

Il progetto “Lazzaretto Hospes 2025-2026 Lo hai mai fatto? Parliamo d’amore”, patrocinato da Unesco, prende le mosse dal Dossier L’educazione affettiva e sessuale in adolescenza: a che punto siamo? pubblicato il 12 febbraio 2025 da Save the Children. È costituito da una serie di 5 incontri con un centinaio di studenti di due scuole secondarie di Napoli che si svolgono presso la Sala del Lazzaretto dell’ex Ospedale di S. Maria della Pace:

  1. Educazione alle emozioni: riconoscerle per imparare a gestirle — 18/11/25
    Dottor Alberto Vito, Resp. U.O.S.D. Psicologia Clinica A.O. Ospedali dei Colli
  2. Amor c’a nullo bot amar perdona — 10/12/25
    Andreas Formiconi
  3. L’amore al tempo dei social: sexting, cybersex, pornografia on line. Il consenso e la violenza di genere — 6/2/26
    Dottor Francesco Cerullo, Sostituto Procuratore presso il Tribunale per i minorenni di Napoli
  4. Amore? Sicuro! Conoscere e prevenire le malattie sessualmente trasmesse — fine febbraio
    Dott.ssa Antonia Mariniello, psicologa-psicoterapeuta presso AORN dei Colli di Napoli, Ospedale Cotugno e il Dottor Massimo Sardo, infettivologo Dirigente medico presso AORN dei Colli di Napoli, Ospedale Cotugno
  5. Restituzione studenti — fine marzo

In questo articolo si riassumono i risultati del secondo incontro, dedicato all’impiego delle tecnologie.

Obiettivo

Carmen Caccioppoli1, ideatrice del progetto ha disegnato con chiarezza l’intento dell’incontro con gli studenti:

Dobbiamo avere chiaro l’obiettivo del prossimo incontro: acquisire conoscenza dei loro comportamenti ma soprattutto insinuare in loro una consapevolezza critica rispetto all’utilizzo di quello che è e può essere sempre e soltanto un strumento, anche molto sofisticato e a tratti ingannevole se non addirittura pericoloso.

Questionario preliminare

Nella settimana precedente le insegnanti propongono in classe un questionario sui temi che verranno discussi in ciascun incontro. In questo caso è sembrato opportuno riferirsi ad una recente ricerca commissionata da Save the Children su un campione di 800 adolescenti in tutto il territorio nazionale2. Qui condividiamo il confronto fra il nostro campione e quello nazionale per le cinque domande che abbiamo selezionato.


Quanto spesso utilizzi strumenti di Intelligenza Artificiale?

Rispetto al campione nazionale usano ancora di più l’intelligenza artificiale.

Quanto ti ritrovi in questa affermazione:
“Mi è capitato di chiedere aiuto a ChatGPT o altri strumenti di Intelligenza Artificiale in momenti in cui provavo solitudine, tristezza o ansia”

Tendono ad essere più accorti, meno inclini a cercarvi supporto di natura psicologica.


Hai mai chiesto dei consigli su qualcosa di serio e di importante per la tua vita ad uno strumento di Intelligenza Artificiale?

Per questioni ritenute importanti in generale il ricorso all’AI è sovrapponibile nei due campioni.

Quanto condividi questa affermazione:
“L’uso di ChatGPT (o altro strumento di IA) è per me fondamentale”

Aggregando i dati in due sole categorie, i partecipanti trovano ormai fondamentale l’impiego dall’AI nel 54% dei casi, meno il 46%, mentre nel campione nazionale le proporzioni erano 49% contro 51% rispettivamente.


Hai mai trovato più soddisfacente confrontarti con uno strumenti di Intelligenza Artificiale rispetto ad una persona reale (es. un tuo parente, amico o insegnante)?

“Quando mai!“” sembrano dire questi studenti, rispetto al campione nazionale. Interessante.

Dal vivo

Abbiamo usato la piattaforma per presentazioni interattive Mentimeter, molto utile in un frangente del genere; ancora di più con giovani cui di solito l’uso del cellulare viene scoraggiato. No, qui siamo partiti all’inverso: il cellulare lo dovete usare!

Cosa e quanto

Gli studenti erano 92. Nei grafici, in basso a destra il numero di coloro che hanno risposto alla domanda. A fianco del numero di risposte appare anche il numero di like che opzionalmente potevano inviare. Non diamo peso a questi ultimi.

Risposte: 84%. Potevano essere selezionate una o più opzioni.

Sono dati previsti e conformi alle tendenze internazionali. Fra i social, TikTok e Instagram fanno la parte del leone, discretamente popolare anche YouTube. Facebook si conferma social per adulti/vecchi. Per quanto riguarda la messaggistica domina WhatsApp.

Seguiva una domanda su eventuali altre piattaforme che avessimo omesso. Nulla di apprezzabile se non qualche segnalazione di piattaforme di gioco online: Roblox (6) e Clash Royale (4). Interessante che vengano percepite come forme di social.

Risposte: 79%. Potevano essere selezionate una o più opzioni.

Polarizzazione su ChatGPT e, in misura del 50% su Gemini. Alcuni usano il cerchietto di WhatsApp e i sommari di Google. Su questi ci torniamo.

La prossima domanda l’abbiamo passata sottotraccia, come fosse una mera continuazione della precedente. In realtà si riferisce ad una variante di chatbot che impersonifica un interlocutore, che può essere un personaggio storico ma anche un “compagno”, che l’utente può determinare autonomamente — sesso, età ecc. Poiché le relazioni sviluppate con questi personaggi immaginari possono avere implicazioni intime che talvolta possono essere pericolose, volevamo affrontarle dopo avere discusso problemi relativamente più semplici.

Risposte: 30%

Prevale Character.AI ma è evidente un interesse ad esplorare il settore: piacciono.

Anche in questo caso abbiamo chiesto se qualcuno utilizza altri tipi di companion AI. Sono stati citati Chai e Sora AI ma anche “compagni di apprendimento” come Atra.ai (matematica), Schoolgpt, Knowmunity, Dende (generatore quiz), Gamma.ai (creazione presentazioni). Occorrerebbe altro tempo per esplorare queste alternative e il loro impiego.

Risposte: 73%.

Questo è un dato rilevante, considerato che i chatbot sono disponibili al pubblico da soli tre anni mentre Google da oltre venti. Ci dicono dove sta andando il Web. Sulle 67 persone che hanno risposto a questa domanda 32 (48%) hanno sostituito ChatGPT a Google tout court. In un recente sondaggio che avevo fatto con i miei studenti (24-26 anni) presso Suor Orsola Benincasa il 29% aveva dichiarato di avere un atteggiamento simile. Tuttavia, se includiamo coloro che usano Google ma privilegiando il sommario AI proposto all’inizio dei risultati, le precedenti percentuali diventano il 79% e l’82% rispettivamente. L’AI si sta mangiando il Web.

Risposte: 74%.

La usano. Va preso come un dato di fatto. Il messaggio è chiaro per chiunque insegni qualcosa: occorre immaginare modalità di lavoro e di verifica compatibili con l’impiego pervasivo di AI.

Risposte: 75%.

Un buon dato: si è consapevoli della natura dello strumento.

Risposte: 68%.

Risultato allineato con il precedente: si tiene conto della fragilità dello strumento. L’utenza pare tendenzialmente accorta.

Cimentiamoci…

Qui descriviamo la parte centrale dell’evento, dove abbiamo cercato di coinvolgere ancora di più gli studenti, in modo che toccassero con mano alcune fragilità dell’intelligenza artificiale; non per demonizzare ma per acquisire maggiore consapevolezza.

Approfittando delle opportunità di gamification offerte da Mentimeter, spariamo a bruciapelo una domanda con 30 secondi di tempo per rispondere e classifica finale per il più veloce…

Risposte: 73%.

La platea si riscalda, la gamification funziona. La domanda era facile, il 77% dei rispondenti ha risposto correttamente nel tempo disponibile. Ma perché una domanda del genere?

Nello scorso marzo un gruppo di ricercatori del Jülich Supercomputing Centre ha pubblicato un articolo intitolato Alice in Wonderland: Simple Tasks Showing Complete Reasoning Breakdown in State-Of-the-Art Large Language Models (Alice nel Paese delle Meraviglie: semplici problemi causano il collasso del ragionamento dei Large Language Model allo stato dell’arte). In questo lavoro i ricercatori hanno generato una serie di problemi semplici per gli umani ma sorprendentemente difficili per i Large Language Model che sostengono i chatbot.

La tabella sotto mostra le risposte alla stessa domanda ottenute dal sottoscritto con otto LLM in marzo, ottobre e dicembre.

In marzo, all’epoca della pubblicazione della ricerca, in questa semplice prova singola, 5 modelli (GPT, Copilot, DeepSeek, Gemini e DeepAI) su 8 hanno sbagliato la risposta. Nella stessa prova ripetuta ad ottobre le risposte sbagliate sono scese a 3 (Copilot, Gemini e DeepAI) su 8. Il fenomeno è documentato: mi sono confrontato con gli autori dello studio e mi hanno confermato che i risultati pubblicati in questo tipo di studi vengono inclusi in operazioni di raggiustamento (fine tuning), che le aziende utilizzano per allinearsi quanto più possibile con la realtà. Nella prova ripetuta a dicembre le risposte errate sono ancora 3 ma con un paio di cambiamenti: DeepAI continua a sbagliare, Gemini è migliorato ma Copilot è peggiorato! E in un modo davvero strano che conviene commentare:

Conviene rileggere insieme la risposta breve, a sinistra:

Un fratello di Alice ha come sorelle tutte le femmine della famiglia. Alice ha 6 sorelle oltre a sé stessa, quindi le femmine totali sono 1 +6 = 71 + 6 =7. Dunque un fratello di Alice ha 77 sorelle.

Ma se si preme il tasto “See my thinking” si apre la sezione di destra dove, in alto, si propone una spiegazione in inglese articolata ma confusa, pur giungendo alla conclusione che le sorelle sono 7; poi, non contento, propone sotto anche una spiegazione in italiano, scrivendola comunque in inglese (!), anche questa circonvoluta ma arrivando poi alla risposta giusta. Come può essere che vengano prodotte tutte queste incoerenze? Ebbene, sono allucinazioni (nel senso dell’AI, per gli umani sono un’altra cosa). Provi il lettore a porre la stessa domanda all’AI di WhatsApp (il cerchietto), vediamo se a qualcuno dà una risposta corretta…

L’esempio ci ha consentito di introdurre vari aspetti relativi ai Large Language Model, quali la nozione di allucinazione e i metodi che i produttori adottano per cercare di mitigarne gli effetti. Sulla scorta di queste considerazioni abbiamo discusso un esempio di classifica delle percentuali di allucinazione dei vari modelli fra quelle disponibili in rete.

Abbiamo poi proposto un altro gioco al fine di approfondire ulteriormente il confronto uomo-macchina.

Si levano le mani in aula. Si fa avanti la prima studentessa che ha alzato la mano e disegna la sua soluzione sulla lavagna a grandi fogli. Torna al suo posto fra gli applausi. Altri vogliono mostrare la propria soluzione, molto bene: il problema può essere risolto in modi diversi, non esiste una soluzione unica. Le soluzioni si avvicendano, uno studente dietro l’altro, un foglio dietro l’altro. Fra queste si fa notare quella di N., che non si limita al disegno ma lo illustra evidenziando il processo.

Discutiamo insieme a N. che il suo è una sorta di codice, di protocodice se vogliamo, che poi ci conduce all’idea di algoritmo. Esiste un linguaggio di programmazione nato proprio per eseguire disegni del genere, Logo, concepito per coadiuvare lo studio delle figure mediante una particolare geometria: la Turtle Geometry.

Scriviamo in alto a sinistra le prime tre righe di codice Logo che esprimono l’algoritmo di N., poi insieme ci trasferiamo al computer e scriviamo insieme il codice completo, così che tutti lo possano vedere bene proiettato. Salutiamo e ringraziamo N. per il contributo, ancora applausi.

Fin qui il gioco è servito per rendersi conto concretamente della semplicità del problema e di come sia possibile per tutti codificarlo. Bene, ora poniamo la domanda all’intelligenza artificiale, utilizzando il mio account ChatGPT e sempre proiettando. Carichiamo il disegno e chiediamo:

Voglio il codice LibreLogo per riprodurre questo disegno usando solo i comandi Logo FORWARD, LEFT e RIGHT

Chi vuol vedere la conversazione in ChatGPT può andare a questo link. In sostanza scrive il codice fornendo anche una descrizione circostanziata. Bene, proviamo a copiare il codice nell’ambiente di sviluppo3 e facciamolo girare:

Il codice è sbagliato. In questa occasione abbiamo fatto un solo tentativo ma in un altro contesto, all’interno del laboratorio di tecnologie didattiche del corso di laurea in Scienze della Formazione Primaria, questa prova l’hanno ripetuta circa duecento studenti suddivisi in gruppi di 3/5 persone, con un computer per gruppo, utilizzando quello che preferivano: ChatGPT, Gemini, Claude e Grok. Ebbene su tutti questi tentativi solo una volta Gemini ha fornito una risposta corretta.

Altro esempio di allucinazione:

Ovviamente coro di risposte: “Un cubo!”. Ma anche “Il cubo di Necker”. Mostro la risposta ricevuta da ChatGPT il 5 dicembre scorso (questo il link):

Il disegno rappresenta due ombrelli.

  • Quello in alto a sinistra è aperto, con l’asta che scende verso destra.
  • Quello in basso a destra è chiuso.

Sembra un semplice schizzo stilizzato di due ombrelli in posizioni diverse.

Sulla base di questo esempio abbiamo approfondito ulteriormente il concetto di allucinazione, approfondendo la nozione di probabilità di occorrenza nei vari LLM.

Altri problemi?

Qui riprendiamo a porre domande, cercando di andare oltre al concetto di verità fattuale.

Risposte: 33%.

Sono circa 1/3 coloro che si pongono la questione. Alla richiesta di quali possano essere altri problemi prevale il rischio di riduzione della capacità di ragionamento, come confermano le risposte alla domanda successiva:

Risposte: 54%

Sensazione quindi condivisa da più di 1/3 del campione. Queste domande hanno generato vari interventi in sala, interessanti oltre che per la qualità anche per l’atteggiamento positivo nel guardare la realtà. Secondo una studentessa occorre considerare che, malgrado i vari problemi dell’AI, in un mondo di gente che non legge e non approfondisce, con l’AI almeno qualcosa leggono. Un altro studente che si è mostrato decisamente informato ha dichiarato di essere fra i sei che hanno votato “NO, anzi penso il contrario” sulla base del fatto che, essendo costretti a valutare con attenzione tutti i responsi dell’AI, questo è un ottimo modo per esercitare il pensiero critico. Nella susseguente discussione ha poi convenuto che questo sì, è vero, ma presuppone un’attitudine che non è propria della maggioranza.

Discusse così le questioni inerenti all’impatto su ragionamento e pensiero critico, la domanda successiva voleva sollecitare il terzo tipo di problema, a cui alludeva il titolo dell’incontro: Amor c’a nullo bot amar perdona

Risposte: 41%

La domanda era posta genericamente per una sorta di timidezza del sottoscritto, non aduso a trattare gli argomenti sensibili inerenti ad un’eccessiva antropomorfizzazione dei chatbot. Ci hanno pensato gli studenti a far emergere i temi più difficili, mostrando una consapevolezza che fa pensare bene. Questo ci ha consentito di citare alcuni casi tragici di gravi alterazioni della personalità o addirittura di suicidi che purtroppo continuano a funestare le cronache.

Ma cosa c’è dentro?

L’ultima mezz’ora è stata dedicata a sbirciare cosa c’è sotto il cofano dell’AI mediante tre demo disponibili in Internet. Si tratta di pagine web realizzate da specialisti di importanti gruppi di ricerca che consentono di esplorare interattivamente alcuni aspetti fondamentali dell’intelligenza artificiale. Dal punto di vista di un estimatore del calcolo scientifico queste demo sono semplicemente bellissime, direi dei capolavori di raffinatezza tecnica e comunicazione. Non riportiamo qui tutte le considerazioni fatte in aula, che del resto sono oggetto dei vari approfondimenti che pubblichiamo in questo blog. Commentiamo brevemente le demo, che il lettore può esplorare a suo piacimento. Tutte e tre offrono numerose opzioni e comandi interattivi. Sono ottime palestre per esplorare aspetti anche piuttosto complessi, aiutandosi con le spiegazioni a corredo o con le numerose risorse disponibili in Internet.

Dove finiscono le parole?

Per provare a rispondere a domande tipo “come sono rappresentate le parole?”, “cosa sono le parole nell’AI?”

Link alla demo: Embedding projector

La demo è disponibile fra le risorse di TensorFlow, una delle più importanti librerie software per la realizzazione di programmi di machine learning e intelligenza artificiale generativa. La libreria è open source ed è sviluppata da Google Brain, la divisione Google dedicata all’intelligenza artificiale.

Il termine embedding indica la trasformazione di una parola (o parte di essa: token) nella posizione di un punto in uno spazio semantico, tipicamente costituito da numerose dimensioni, 16384 nel caso di ChatGPT. Un punto in uno spazio è rappresentato dai valori delle sue coordinate lungo le varie dimensioni. Quindi una singola parola in ChatGPT viene trasformata in un insieme di 16384 numeri, che ne definiscono la posizione nello spazio semantico. La demo è un “proiettore” (projector) perché essenzialmente proietta uno spazio a molte dimensioni sullo spazio a tre dimensioni rappresentato sullo schermo bidimensionale.

Qui si individua subito il concetto fondamentale: nell’AI l’affinità semantica viene espressa e gestita attraverso la vicinanza statistica. È vero che la vicinanza statistica rappresenta in qualche maniera l’affinità semantica ma sono cose diverse; ad esempio la vicinanza statistica non può esprimere alcuna relazione causale fra parole o concetti, quindi non può produrre comprensione come la intendiamo noi umani.

Muovendo con il mouse il puntatore sulla nuvola di punti rappresentata dalla demo si vedono le corrispondenze fra punti e parole. Usando i consueti meccanismi di trascinamento si può manipolare a piacimento la nuvola di punti. Può convenire scegliere l’opzione UMAP nel menu a sinistra per avere una rappresentazione che facilita l’individuazione di raggruppamenti di parole semanticamente affini.

Come impara l’IA?

Dove risiedono le informazioni? Come fa ad apprenderle? In sostanza, come impara?

Link alla demo: Playground – tinkering with a neural network

La demo realizza una sorta di parco giochi per costruire reti neurali, gli elementi base di tutte le architetture dei LLM. Consente di giocare con gli elementi costitutivi fondamentali di una rete neurale — essenzialmente i suoi iperparametri: numero di nodi, numero di strati, velocità di apprendimento, e vari altri. La rete così costruita viene usata per risolvere una varietà di semplici problemi di distribuzione spaziale di una quantità che può assumere sia valori negativi (arancio) che positivi (blu). La demo consente di selezionare un certo numero di punti campione utilizzati per l’addestramento, per ogni data configurazione spaziale. Scopo della rete è quello di vedere se la rete riesce a ricostruire accettabilmente la configurazione partendo da un dato insieme di ingredienti base. Se non ci riesce, il giocatore — è il caso di dire — può intervenire aumentando il numero di strati o di nodi per ciascuno strato, o altri iperparametri, e riprovare. Giocando con la demo si comprende come la conoscenza del problema venga compressa nei valori dei pesi che collegano ciascun nodo con il successivo. Non è quindi espressa in alcun modo esplicito.

Come costruisce il discorso…

Come fa a formare testo? Come mette una parola dietro l’altra?

Link alla demo: Transformer Explainer

La demo, sviluppata da un gruppo di ricercatori del Georgia Institute of Technology, illustra il funzionamento del transformer, l’elemento che ha dato origine al successo dei LLM. Al transformer abbiamo dedicato vari articoli in questo blog. Per giocare con la demo, si può scrivere l’incipit di una frase nel box in alto, anche solo qualcosa come “My name”, come abbiamo fatto in aula. In inglese perché la demo utilizza GPT-2, la bisnonna di GPT-5, in una versione che era stata addestrata solo su testi inglesi. Poi, ogni volta che si preme il tasto “Generate”, si visualizza il processo che aggiunge la prossima parola, scegliendola casualmente fra una piccola selezione di possibilità, secondo una certa distribuzione di probabilità. Nelle pagine sottostanti la demo, si trovano le spiegazioni degli elementi fondamentali e dei parametri su cui si può intervenire. Estremamente utile per chi voglia capirne di più, studiando, ma anche per avere una pur vaga idea del processo statistico che sta alla base della formazione dei testi.

Conclusione

Alcuni amici mi avevano messo in guardia: “Guarda che sono disinteressati, passeranno il tempo a guardare una serie sul cellulare…”. No, non è proprio così. La partecipazione è stata vivace, vivacissima laddove abbiamo potuto inserire il gioco. La percentuale delle risposte alle domande che potevamo presumere riguardassero tutti — tipo che social usi? — è stata elevata, fra 68% e 84%. I risultati danno l’impressione di giovani che l’intelligenza artificiale la usano, anche molto, ma con un certo atteggiamento critico, rivelandosi non così inclini ad antropomorfizzazioni improprie dello strumento.

Bello.


  1. La Dottoressa Carmen Caccioppoli è Referente per le attività didattiche e culturali del Museo delle Arti Sanitarie di Napoli. ↩︎
  2. La sintesi dei risultati è disponibile nell’Atlante dell’infanzia (a rischio) in Italia 2025 (p. 89) mentre i particolari della ricerca sono riportati nel Bonus track (p. 29) che accompagna la pubblicazione, ambedue accessibili a questo link. ↩︎
  3. La versione di Logo che abbiamo usato si chiama LibreLogo ed è disponibile fra gli strumenti standard del wordprocessor Write di LibreOffice, una suite per produttività personale analoga a MSOffice. Si tratta di un software libero e quindi liberamente utilizzabile da chiunque, cosa molto interessante in qualsiasi contesto didattico. Cercando la parola LibreLogo in questo blog si trovano molti esempi sull’argomento. ↩︎

Come Francesco, non vedente, ha visto il laboratorio di tecnologie didattiche

Fotografia di Francesco sulla terrazza di Suor Orsola Benincasa

Ecco il resoconto di Francesco sulla partecipazione al laboratorio di tecnologie didattiche di cui avevamo detto recentemente — Quando in classe compare “’nu cecate”… e tu sei disperatamente impreparato!

Oggi ci siamo visti e abbiamo discusso della possibilità di inserire nel laboratorio un’attività da eseguire ad occhi bendati, basata sul riconoscimento tattile di figure geometriche realizzate con materiali vari, legno, elementi del Meccano oppure realizzati con stampa 3D ecc.

Grazie Francesco!

Continua (2 min)

Amor c’a nullo bot amar perdona

Scrivo questo articolo per via di un evento dove dovrò confrontarmi con un centinaio di adolescenti su tecnologia, intelligenza artificiale, affettività. In fondo una sintesi del progetto e la mia lettera agli studenti.

(no, non mi sento preparato)

Continua (5 min)

Quando in classe compare “’nu cecate”… e tu sei disperatamente impreparato!

Dove scopro che se non imparo a vedere come vede lui non posso insegnare nulla.

È stato possibile scrivere questo articolo grazie all’eccezionale collaborazione di Francesco Savanelli, il protagonista, e al contributo spontaneo di una sua collega, Barbara Veneruso.


Qui c’è una bella foto di Francesco dove, sulla terrazza di Unisob sembra assaporare beatamente la meravigliosa atmosfera del Golfo di Napoli con il Vesuvio alle spalle e un gabbiano che vola alto.

Il primo preconcetto: perché Francesco è qui?

Nel caos degli accomodamenti di una settantina di studenti, laggiù in fondo all’aula si aggira un giovane che si muove in modo differente, mi rendo conto che non vede: avrà sbagliato aula, sarà di un altro corso di laurea… Dimentico, travolto dalla quantità di cose da fare e da dire nel primo incontro del laboratorio. Ma alla fine rieccolo, accompagnato da una collega. Si presenta: è un mio studente. Non molto dopo gliel’ho detto chiaramente:

— Francesco, appena mi sono reso conto che sei un mio studente m’è preso il panico!

Continua (15 min, 30 min con i video)

Il laboratorio di Maria Grazia Fiore

Scrivo questo articolo per condividere la memoria di Maria Grazia Fiore1 con tante persone che l’hanno conosciuta e si sono avvalse dei suoi insegnamenti. Lo scrivo anche perché nel corso della nostra lunga collaborazione ho imparato veramente tanto da lei e questo è un modo per ritrovare tracce che non voglio smarrire.


Locandina realizzata da Maria Grazia per il laboratorio dell’8 novembre 2019 con gli studenti di Scienze di Formazione Primaria di Firenze.
Continua (10 min)

Cittadini chiedono, proviamo a rispondere…

Continuiamo a raccontare, ovunque capiti, dalla parrocchia all’università, a quella della terza età, all’associazione scientifica. Raccontiamo non contro, come taluni equivocano, ma per capire. La questione non è essere pro/contro ma sforzarsi di comprendere. Il fatto è che informazione totale equivale a informazione zero. Il desiderio di capire e, conseguentemente, di esercitare il pensiero critico, naufraga miserabilmente nel tutto e contrario di tutto, dove prevalgono le appartenenze e quello che pare dialogo forbito si riduce in realtà a contesa tribale.

E nel cercare di comprendere ci riferiamo sempre e solo agli studi dei massimi esperti, cioè di coloro che l’intelligenza artificiale la costruiscono e sanno meglio di tutti come è fatta dentro.

Solo fatti, dimostrati fino a prova contraria. Niente fuffa.

Dammi un LLM e ti dimostro quel che vuoi, e il suo contrario…

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


Recentemente circolano sempre più notizie sui ritorni irrisori prodotti dagli investimenti in AI, specialmente, anche se non solo, da parte delle imprese più grandi. Uno studio recente del MIT stima siano il 95% le organizzazioni che non registrano ritorni apprezzabili dagli investimenti in tecnologie AI.

Il fenomeno è sempre più evidente quindi si iniziano a cercare le cause: AI-Generated “Workslop” Is Destroying Productivity (Harvard Business Review, settembre 2025). Workslop: contenuto generato con l’AI che all’apparenza si presenta bene, ma poi si rivela privo di sostanza, quindi inutile. Si usa anche la forma verbale: you have been workslopped, ti hanno mollato un pacco, una sciatteria da AI. L’articolo ha rilevato che il 40% su un totale di 1150 impiegati in varie imprese americane lamenta di ricevere workslop. Il problema è macroscopico perché i testi sciatti perfondono il sistema comunicativo delle aziende costringendo altri colleghi a dissipare tempo prezioso nel valutare e correggere, se non riscrivere ex novo, i workslop; di conseguenza viene speso tempo improduttivo e i flussi di informazione si deteriorano. L’articolo ipotizza che la causa sia “AI slop”, sciatteria da AI.

L’AI slop affligge anche noi utenti comuni. Nella stragrande mggioranza dei casi adoperiamo le chat senza un piano B: mi occorre un’informazione che non posseggo, chiedo a ChatGPT (o altro) e uso la risposta. Fine della storia. Gli utenti accorti e consapevoli sono una quantità infinitesima. Inutile girarci attorno. Il problema affligge anche scolari e studenti: ChatGPT vola quando i ragazzi tornano a scuola1. O pensiamo che loro sì, usino l’AI in modo consapevole, attuando verifiche e controlli del caso? O confidiamo che gli insegnanti, che poi sono alcuni di noi, abbiano competenze e strumenti per affrontare un problema del genere?

Ma se la sciatteria è il problema, come valutarne gli effetti? Ebbene, recentemente è uscito un articolo che affronta rigorosamente la questione in un contesto ben definito. Il lavoro è stato proposto in questi giorni da un gruppo di ricercatori dell’Università Bocconi, delle università di Zurigo, Gothenburg, Leiden e dell’Istituto per le Scienze Sociali Leibniz2.

Continua (10 min)

MOOC — Vocabolario artificiale: dalla A alla I

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


I temi principali discussi in questa raccolta di approfondimenti sull’AI sono ora disponibili anche nel MOOC Vocabolario artificiale: dalla A alla I ospitato da Federica WebLearning.

Il MOOC è rivolto a chi ha difficoltà a racapezzarsi nella tempesta di acronimi dell’AI. Spiega in modo semplice i concetti fondamentali che sostengono i Large Language Model (LLM). Non copre tutto ciò che concerne le versioni “thinking”: chain-of-thought, varie forme di reinforced learning ecc. E non copre le altre forme di intelligenza artificiale, meno note ma non meno importanti, di cui ci occuperemo in futuro.

Si concentra solo sui concetti base perché pregi e difetti degli LLM si riverberano su tutto ciò che vi viene costruito sopra: capire i fondamenti serve a porre in una prospettiva corretta tutto il resto.

L’accesso al MOOC è gratuito.

Non cadere nella trappola degli annunci (GPT-5)

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


L’altro giorno mi serviva disegnare un diagramma di una semplice rete neurale. Per fare prima ho chiesto a ChatGPT, anche per provare la versione 5, comparsa il giorno prima.

Questo il prompt:

I need a diagram of a neural network composed by:
Input layer with 2 nodes
Hidden dense layer with 25 nodes
Output layer 1 node
Continua (5 min)