Quello che nel mio piccolo sto cercando di fare è di consentire, anche a coloro che sono in poca confidenza con le matematiche, di comprendere un po’ più in profondità alcuni elementi essenziali che sostengono l’AI, in modo da rendersi conto della natura dei problemi che l’affliggono ed essere un po’ più consapevoli di quello che fanno quando ci si avvicinano.
Mi ha spinto non poco in questa imprevista ma divertente avventura constatare la dissonanza fra gli sforzi e le preoccupazioni di coloro che studiano, progettano e programmano l’AI e la proliferazione di “esperti” che propongono corsi a destra e a manca, anche in campi nei quali occorrerebbe la massima prudenza, come quello della formazione, soprattutto dei giovani.
Agisco principalmente 1) studiando articoli scritti da specialisti dell’AI, cioè di coloro che la stanno facendo; 2) recuperando vari attrezzi del precedente mestiere di ricercatore che utilizzavo in tutt’altri campi (nemmeno così lontani, mi sto rendendo conto) e 3) scaricando e provando vari LLM o parti di essi, non per mettere su qualcosa ma per toccare con mano alcune delle cose che studio.
Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.
In breve
Claude Code è un agente: non genera solo testo ma fa cose. Gli agenti impiegano LLM per generare testo ma hanno anche altre componenti perché l’azione richiede determinismo. Funzionano molto bene, se i compiti sono ben definiti e non troppo complessi. Per un boomer cresciuto con il terminale, Claude Code è uno sballo: l’antico nel futuro. Esilarante da rischiare di diventarne dipendente. Potrebbe essere un problema? Ma soprattutto, chi paga il conto? In parte noi, quando scopriamo che dopo averci fatto venire la voglia tocca pagare per continuare. In realtà il conto è assai più salato. L’utenza esplode e le big tech faticano sempre più a tenere il passo con la domanda. Gli investimenti gonfiano ma i ritorni per ora languono. Il fabbisogno di energia generato dall’AI incide sulla distribuzione, amministrazioni locali e cittadini iniziano ad opporsi. E tutto questo avviene soprattutto in America, che è un’altra parte ancora del problema. A quando un minimo di stabilità?
Claude Code nella versione più potente funziona preferibilmente nel Terminale. Non per un vezzo vintage ma perché chi lavora col codice spesso lo predilige rispetto alle interfacce grafiche.
Le buone notizie
Non ci siamo risparmiati dubbi sull’AI in questo blog. Non per partito preso ma perché cerchiamo di orientarci in un mondo così nuovo, complesso e dinamico. Tuttavia molti dei problemi discussi riguardavano i Large Language Model (LLM) mentre gli strumenti offerti al pubblico sono sempre meno solo LLM ma sempre più “neurosimbolici”, ovvero composti di reti neurali (LLM alla larga) ma anche di intelligenza artificiale simbolica.
Nel codice diffuso poco tempo fa accidentalmente da Anthropic (vedi l’articolo di Gary Marcus) si trovano ampie sezioni che i padri dell’AI simbolica non avrebbero avuto difficoltà a riconoscere: codice classico, zeppo di biforcazioni (if-then-else) e nidificazioni ricorsive, ma tutto codice deterministico e non statistico come gli LLM. Molti preconizzano da tempo l’evoluzione verso sistemi ibridi statistico-deterministici. E la cosa è piuttosto ovvia perché un conto è generare testo, un altro agire. Serve generatività ma serve anche riproducibilità. Probabilmente la direzione giusta.
Bene, ma che c’entra il terminale nella figura? È la scelta di Anthropic per Claude Code, destinata a developers, builders, hackers, tinkerers, engineers, programmers, makers, creators, debuggers, inventors, shippers, comunque gente che spesso lavora preferibilmente con testo piuttosto che con interfacce grafiche. La norma per chi ha conosciuto i computer attraverso terminali neri, che però nel frattempo non erano morti ma hanno covato come brace sotto la cenere nella forma del “Prompt dei comandi” e della “PowerShell” in Windows, o nel “Terminale”di Linux e Mac, tutti utili per i suddetti soggetti usi a scriverli i comandi. E, scoperta nella scoperta, ci accorgiamo che in Windows 11 si può installare facilmente un sistema Linux a scelta accessibile dal terminale1. Il boomer zampetta felice sulla tastiera. Non diciamo altro sul terminale, eccetto ricordare che Claude Code esiste anche in versione grafica — Claude Desktop — ma questa non gode di tutte le funzionalità della versione per terminale.
Ci voleva un’occasione per veder di che si tratta. Ottima quella di dover fare ordine in 850 note esportate da Evernote, un’applicazione web molto efficiente ma, come al solito, sempre più esosa. Le note sono in un formato comunemente usato per lo scambio di informazioni (XML) fra applicazioni ma scomodo da leggere. Premesso che i dati in Evernote consistevano in circa 850 note distribuite in 35 “taccuini”, non è stato difficile chiedere a Claude Code di…
estrarre da ciascun taccuino le singole note, inserendo in ciascuna di esse un’etichetta (tag) con lo stesso nome del taccuino di origine
tradurre ogni nota in un file .md (formato markdown, facile da manipolare ma anche molto comodo da gestire con l’AI)
Una decina di minuti. Quanto tempo ci avrei messo facendo il lavoro a mano? Un tempo infinito perché non avrei mai avuto voglia di farlo. Ma anche dieci minuti spesi bene, perché il processo è trasparente: l’agente mostra esattamente tutti i passaggi, i test intermedi che realizza autonomamente e la lista del programma Python scritto al volo per eseguire il lavoro completo ma, prima di qualsiasi azione che comporti la scrittura di dati, chiede sempre l’ok. Siamo stati noi ad impostare l’agente in maniera da chiedere sempre il permesso prima di agire ma questo rimane comunque un momento delicato dove si è combattuti fra la tentazione di dire sempre di sì per arrivare presto al risultato invece di prendersi tempo per comprendere i passaggi e eventualmente correggere qualcosa.
E ora? La fame vien mangiando. Azzardo:
A questo punto propongo qualcosa di più complesso. Prima di tutto copia tutti i file .md in una sottocartella di nome files_md. Poi ti chiedo di analizzare ciascun file in questa sottocartella per creare dei cluster (nello spazio semantico), ciascuno caratterizzato da un tag che scegli tu. Ad esempio tutte le note che parlano di AI è probabile che le classifichi con tag AI. Questo tag scelto da te lo devi scrivere in modo riconoscibile fra i metadati di ciascun file.
Pensavo di avere esagerato perché non si trattava di semplice riorganizzazione dei dati ma di qualcosa di più complicato, come scegliere l’algoritmo matematico adeguato, installare i relativi pacchetti software, scrivere un programma Python che leghi tutto insieme. Invece si orienta subito:
Procedo per fasi. Prima copio i file, poi verifico le librerie disponibili per il clustering semantico
La risposta dà l’idea che l’agente abbia “capito” perfettamente. Mentre lavora vedo cosa sta facendo e nel frattempo posso documentarmi. Per esempio dalle librerie che scarica mi rendo conto del metodo che intende usare. Verifico e mi pare appropriato. In pratica si tratta di due componenti: uno che serve a trasformare ciascun documento in una posizione (vettore) nello spazio semantico e l’altro che individua gli addensamenti dei documenti in base ai loro contenuti2.
È loquace, mentre lavora spiega. Per esempio che le suddette librerie non le può installare perché non ha i diritti per accedere al mio computer. In effetti non gliel’ho dati perché non mi fido. Ma non si blocca, cerca alternative e trova una versione semplificata delle librerie, mi informa di questo e procede, generando lo script Python per creare i cluster. Lo lancia, dopo avere chiesto il permesso. Pochi secondi ed ecco il risultato.
La situazione è interessante: soddisfazione per un lavoro che sarebbe stato impossibile da fare a mano, delusione per la scarsa qualità. Sì, alcuni cluster sono adeguati ma non il cluster enorme che si è mangiato più della metà dei documenti, o la coda di piccoli addensamenti intorno a termini scarsamente significativi. Chiedo:
Ma non è che le librerie proposte all'inizio esprimono algoritmi migliori?
Sì, mi spiega, snocciolando una serie di motivazioni che mi paiono sensate.
Bene, allora cosa mi suggerisci per utilizzare queste librerie senza che tu possa pasticciare sul mio disco?
Mi propone un modo adeguato per installare per conto mio le librerie nell’ambiente di lavoro.
Perfetto, ripartiamo daccapo. Lo script Python viene riscritto (377 righe) e rilanciato. In effetti va molto meglio ma certamente non ancora bene. Mi propone una serie di aggiustamenti, che approvo nella maggior parte dei casi. Altri li propongo io. La collaborazione, lunga, articolata, si fa interessante. I cluster sono quelli giusti ma diventa evidente che non rimane che armarsi di pazienza e andare a spulciare le note che sono andate palesemente fuori posto. Un po’ noioso ma a questo punto fattibile. Procediamo per iterazioni successive. Ogni volta scopro altri documenti da ricollocare ma la lista delle correzioni indispensabili si assottiglia sempre più.
Arriviamo a una soluzione soddisfacente. Chiedo di generare una rappresentazione grafica dei cluster. Mi propone varie soluzioni fra cui un grafico a bolle interattivo apribile nel browser, salvato come file .html.
La rappresentazione è interattiva: passando con il mouse su ciascun rettangolo vengono rappresentati i tag che compaiono più frequentemente nei documenti di quel cluster. Per esempio su LOGO-Turtle appaiono LibreLogo, Logo, Bibliografia ragionata, Computer Science Education, Ellisse, Scratch ecc.
Un’ottima esperienza. L’agente non ha mai commesso errori palesi — che invece capitano con la consultazione normale. Tutti i problemi dipendevano dall’imperfezione delle richieste e dalla necessità di metterli a fuoco progressivamente. Insomma l’uomo deve lavorare un bel po’ affinché l’agente dia il meglio. E lo dà abbastanza. Da creare dipendenza…
Le angosce
E la dipendenza la crea. Claude Code ha avuto un grande successo, nonostante la declinazione tecnica, e Anthropic è dovuta ricorrere a varie forme di contingentamento dell’offerta per quagliare la domanda: stiamo usando così tanta AI che la potenza di calcolo disponibile non basta più (WSJ, 12 aprile).
Intanto il margine di accesso gratuito si assottiglia, si fa presto ad arrivare alla soglia: €15/mese più IVA, nel nostro caso. Il prossimo passo sarebbe €90/mese. Speriamo di non arrivarci ma la trappola è ben congegnata: una volta scoperto di non potere più andare avanti con il piano corrente, si sono già investite così tante energie che diventa difficile rinunciare.
In realtà questi introiti non bastano nemmeno lontanamente a coprire i costi immensi sostenuti dalle big tech per la produzione e lo sviluppo dell’AI offerta al pubblico. I ritorni generati da aziende che hanno integrato in qualche forma sistemi AI basati su LLM sono per il momento minimi. A livello globale, secondo l’indagine “State of AI” di McKinsey del 2025, il 78% delle aziende dichiara di utilizzare l’intelligenza artificiale in almeno una funzione, rispetto al 55% nel 2023, ma quelle che utilizzano l’AI hanno riscontrato in media risparmi sui costi inferiori al 10% e aumenti di fatturato inferiori al 5% (AI4Business, aprile 2025). Per ora non si registra quindi un aumento di produttività a livello aggregato.
Nel frattempo la necessità di moltiplicare le infrastrutture per sostenere uno sviluppo così travolgente sta generando problemi di amministrazione locale, perché questi centri da qualche parte devono pur stare. Anzi, se possibile, devono essere collocati in luoghi favorevoli nel contesto delle infrastrutture preesistenti. Già in una decina di stati americani stanno comparendo proposte di legge tese a limitare la proliferazione di nuovi data center (WSJ, 14 aprile) ma si stanno anche moltiplicando le manifestazioni di dissenso popolare (WSJ, 25 aprile).
È anche in atto una mutazione antropologica. Nel secolo scorso un contesto così volatile sarebbe parso insopportabile. Oggi tuffarsi in acque tempestose senza salvagente è normale.
Anthropic ha deciso di disattivare l'intero nostro account per una presunta violazione delle loro condizioni d'uso. Quale politica specifica abbiamo infranto non ne ho la più pallida idea: semplicemente abbiamo ricevuto una mail e stop, arrivederci Claude. Se vuoi fare ricorso contro la decisione, devi compilare un Google Form, per quanto ridicolo possa sembrare. Di colpo più di 60 persone si sono trovate senza uno strumento fondamentale per lavorare. Integrazioni, skill, storico delle conversazioni: tutto perso o, nel migliore dei casi, fermo per un tempo indefinito. Enorme lezione per qualsiasi azienda software che dipenda da strumenti di IA in processi critici. Non bisogna mai mettere tutte le uova in un unico paniere. Dal post di un imprenditore in X - 18 aprile
Poi il giorno dopo l’account è stato riattivato con la comunicazione che si era trattato di un falso positivo. È finita bene ma l’episodio è istruttivo. Quanto meno: salvare tutto, sempre, ossessivamente. E avere un piano B.
Stiamo godendo sì di inedite opportunità ma non bisogna dimenticare che queste sono sostenute dalla più grande scommessa di sempre. Mezzo secolo fa il settore high tech primeggiava già con IBM, per via della natura dei prodotti hardware e software, ma in un contesto di grande stabilità: le azioni IBM costituivano il fondamento di moltitudini di portafogli. Qui invece stiamo cavalcando un’esplosione, scientifica, tecnologica, finanziaria, geopolitica, in un contesto altamente asimmetrico, lontano da qualsiasi parvenza di stabilità.
Il conto potrebbe essere ben più salato del piano a €15/mese.
È veramente facile attivare il Windows Subsystem Linux (WSL) in Windows 11. Ci sono vari metodi, il più semplice, che installa la distribuzione Ubuntu di default, consiste nell’aprire il terminale PowerShell o Prompt dei comandi e digitare il comando wsl --install Una volta installato, anche per lanciarlo ci sono vari modi. I più semplici sono: digitare direttamente Ubuntu nel menu Start di Windows oppure, una volta aperto PowerShell o Prompt dei comandi, digitare semplicemente wsl. fatto questo ci si ritrova in un terminale Ubuntu aperto sulla cartella di lavoro /home/andreas Questo fa parte del file system di Linux. Conviene lavorare qui con Claude Code perché è più veloce. Se si vuole accedere da qui a qualcosa nel file system Windows, per esempio al proprio spazio, allora il percorso è questo: /mnt/c/Users/andreas Se invece si vuole accedere al file system Linux da una qualsiasi applicazione Windows il percorso è \\wsl.localhost\Ubuntu\home\andreas Per avere info più dettagliate chiedere a un chatbot con prompt tipo: “Come attivare WSL (ad esempio Ubuntu) in Windows 11?” “Supponiamo di avere installato Ubuntu. Quali sono i modi per lanciarlo?” ↩︎
Si tratta di una tecnica di machine learning che impiega due strumenti statistici: TF-IDF e K-means. Il primo (TF-IDF), sulla base dell’insieme delle parole presenti in tutti i documenti, costruisce uno spazio vettoriale dove ogni documento diventa un vettore le cui componenti sono le frequenze di ciascuna parola in quel documento. Successivamente, K-means individua i cluster che raggruppano semanticamente i vettori-documento. Per maggiori dettagli suggeriamo queste note di The Stanford Natural Language Processing Group: Introduction to Information Retrieval, in particolare Tf-idf weighting , Dot products e K-means. . ↩︎
Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.
Da molto tempo avvertivo il bisogno di mettere ordine in questo blog dove ho disordinatamente accumulato ricordi e pensieri intorno a tante esperienze didattiche, sia come docente che discente. Ma la pigrizia e l’infantile desiderio di tuffarsi sempre nella prossima avventura me l’hanno sinora impedito, anche perché la mole crescente del materiale (1’186 post dal 2007 ad oggi) mi faceva passare sempre più la già scarsa voglia. Diciamo che ci avevo rinunciato, ma non avevo previsto l’arrivo dell’AI!
Vabbè, così ho provato anche il generatore di immagini di WordPress…
Ebbene, visto che il più delle volte passo il tempo a segnalare trappole e disfunzioni dei Large Language Model ecco invece una storia positiva. Chiariamoci: non sono “contro” l’AI. Mi concentro sulle criticità per contrappeso ad una narrativa dominante distorta e alla percezione comune dell’AI quale intelligenza altra e fonte di riferimento primaria, che è il modo peggiore per affrontarla. Con questo articolo inizio invece a documentare casi d’uso interessanti, prendendo le mosse proprio dal tentativo di recuperare il filo d’Arianna di questo blog.
Questo è il passaggio che nella sua relazione finale Simona Assunta Felice, studentessa di Scienze della Formazione Primaria, ha dedicato alle attività laboratoriali dove abbiamo adoperato l’intelligenza artificiale.
Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.
L’Intelligenza Artificiale: Specchio o Strumento?
Abbiamo messo alla prova l’Intelligenza Artificiale (ChatGPT e simili) chiedendole di risolvere gli stessi problemi di LibreLogo che avevamo affrontato noi in aula.
Vedere l’AI scrivere in tre secondi netti, con una facilità disarmante, lo stesso codice che a me aveva richiesto due ore di sudore, è stato umiliante. Mi sono sentita improvvisamente obsoleta. Mi sono chiesta con angoscia: “Ma se una macchina lo fa meglio e più velocemente, allora io a che servo? Qual è il valore del mio sforzo?”. Poi, però, abbiamo iniziato ad analizzare i risultati con occhio critico, ed è emersa la verità. L’AI, nonostante la sua velocità, a volte “allucinava” in modo bizzarro.
Riprendo l’abitudine di raccogliere gli elaborati degli studenti — da quattro anni a questa parte di Scienze della Formazione Primaria dell’Università Suor Orsola Benincasa di Napoli — che raccontano, dopo un laboratorio di sole 18 ore, della loro trasformazione, trasformando a loro volta il docente. Ne ho accumulati troppi, cercherò di recuperarli piano piano, perché rappresentano il risultato più prezioso del mio lavoro.
Iniziamo con l’elaborato di Ludovica Caldieri che unisce magistralmente codice e arte, dove Ludovica si domanda se quel linguaggio fatto di comandi essenziali possa trasformarsi in qualcosa di vivo, dinamico, persino poetico.
I cittadini di Pontassieve e dintorni si trovano ad affrontare una situazione simile a quella che ci colse di sopresa nove anni fa, quando arrivarono alcune decine di migranti senza che né le amministrazioni locali né i cittadini fossero informati delle circostanze. A quei tempi il tema era di quelli bollenti e, nella nostra piccola realtà, generò un’azione di auto-organizzazione che dette vita alla Scuolina, dove volenterosi del luogo ma anche di zone limitrofe si impegnarono in una forma di educazione non formale, con notevoli successi ma con non poche difficoltà per via delle polemiche infuocate alimentate dal malsano clima politico che dominava la scena. Ora pare che il tema sia meno critico, almeno nella percezione comune, forse anche a causa dell’accumulo di altre gravi emergenze globali. Tuttavia alcuni cittadini di Pontassieve, ai quali la storia della Scuolina è nota, si sono attivati e hanno organizzato l’evento che segue.
Sarà un piacere rispondere alle loro domande e, con l’occasione, cercheremo di offrire alcune riflessioni che hanno avuto bisogno di maggior tempo per emergere.
Frequentando la rete diffondiamo molte notizie su di noi. Proviamo a farci un’idea con l’esempio di Google e poi vediamo cosa possiamo fare per controllare in qualche misura le nostre tracce. L’elenco che segue è incompleto, riguarda solo i servizi più popolari.
Un laboratorio con i cittadini presso la Libera Università Valdisieve e Valdarno. Sette incontri tutti i mercoledì dalle 17 alle 19 a partire dal 7 gennaio. Inevitabile discutere di intelligenza artificiale, anzi soprattutto, considerando che sta divorando tutti gli spazi possibili. Ciò nonostante cercheremo di allargare l’orizzonte per riflettere su come ci siamo trasformati da vent’anni a questa parte. L’avvento dell’intelligenza artificiale è recente e dirompente ma ci ha trovati “pronti”, cotti a puntino. Gli incontri saranno dialogati e il filo conduttore sarà fatto di domande che ci porremo a vicenda. Cercheremo di capire quanto siamo consapevoli delle implicazioni di gesti quotidiani che diamo per scontati, naturali quindi innocui. Com’è che consumando ossessivamente merci, informazioni, di tutto, finiamo con essere noi la merce? Com’è che credendo di essere in controllo, artefici del nostro destino, scopriamo di essere invece manipolati e vulnerabili? Come difendersi da un simile maleficio? Non ci sono ricette magiche ma sicuramente un primo tentativo utile è cercare di sapere: individuare contesti e relazioni causali, ove possibile. Non mera informazione ma comprensione, studio.
La dimensione laboratoriale si realizzerà attraverso uno strumento di partecipazione real-time e gli smartphone degli astanti ma anche con un atteggiamento flessibile che consentirà diversioni e approfondimenti imprevisti.
Ecco il resoconto dell’incontro con un centinaio di adolescenti su tecnologia, intelligenza artificiale, affettività, di cui dicevamo qualche tempo fa (27.11).
Inserisco anche questo articolo nella serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.
Il contesto
Il progetto “Lazzaretto Hospes 2025-2026 Lo hai mai fatto? Parliamo d’amore”, patrocinato da Unesco, prende le mosse dal Dossier L’educazione affettiva e sessuale in adolescenza: a che punto siamo? pubblicato il 12 febbraio 2025 da Save the Children. È costituito da una serie di 5 incontri con un centinaio di studenti di due scuole secondarie di Napoli che si svolgono presso la Sala del Lazzaretto dell’ex Ospedale di S. Maria della Pace:
Educazione alle emozioni: riconoscerle per imparare a gestirle — 18/11/25 Dottor Alberto Vito, Resp. U.O.S.D. Psicologia Clinica A.O. Ospedali dei Colli
Amor c’a nullo bot amar perdona — 10/12/25 Andreas Formiconi
L’amore al tempo dei social: sexting, cybersex, pornografia on line. Il consenso e la violenza di genere — 6/2/26 Dottor Francesco Cerullo, Sostituto Procuratore presso il Tribunale per i minorenni di Napoli
“Amore? Sicuro! Conoscere e prevenire le malattie sessualmente trasmesse — fine febbraio Dott.ssa Antonia Mariniello, psicologa-psicoterapeuta presso AORN dei Colli di Napoli, Ospedale Cotugno e il Dottor Massimo Sardo, infettivologo Dirigente medico presso AORN dei Colli di Napoli, Ospedale Cotugno
Restituzione studenti — fine marzo
In questo articolo si riassumono i risultati del secondo incontro, dedicato all’impiego delle tecnologie.
Oggi ci siamo visti e abbiamo discusso della possibilità di inserire nel laboratorio un’attività da eseguire ad occhi bendati, basata sul riconoscimento tattile di figure geometriche realizzate con materiali vari, legno, elementi del Meccano oppure realizzati con stampa 3D ecc.
Scrivo questo articolo per via di un evento dove dovrò confrontarmi con un centinaio di adolescenti su tecnologia, intelligenza artificiale, affettività. In fondo una sintesi del progetto e la mia lettera agli studenti.