Rivoluzione AI? Scarse tracce e notevoli preoccupazioni

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.

Aggiornamento 18 agosto con la notizia del disimpegno del governo britannico dall’AI e un inciso sulla produzione artificiale di codice di Stephen Downes. Gli aggiornamenti sono riconoscibili dallo sfondo grigio.


Dicevamo che nella stampa specializzata si va avanti al ritmo di una breaking new al giorno in un susseguirsi frenetico di innovazioni e annunci epocali: nessuno scriverà più una riga di codice, dimenticate Excel, 15 modi per fare soldi con l’AI e via dicendo. Per non parlare dei corsi di AI applicata ad ogni angolo dello scibile. Ma il vento sta girando. Per dire: la corsa a modelli sempre più potenti sta generando risultati rapidamente decrescenti a fronte di costi in crescita esponenziale, i prossimi modelli richiederanno una quantità di energia incompatibile con la transizione energetica a meno che non si costruiscano apposite centrali nucleari, non esiste ad oggi un solo esempio di applicazione dell’AI su larga scala da parte di grandi aziende, il codice software prodotto dall’AI di norma non funziona, gli investitori iniziano a diffidare e le quotazioni delle maggiori aziende stanno crollando in misura proporzionale al coinvolgimento nell’AI.

Continua (15 min)

Alla ricerca dell’intelligenza… con una manopola o due…

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.

Sono debitore per i contenuti di questo post a Alejandro Piad Morffis, computer scientist dell’Università dell’Avana, in particolare per i grafici e la demo per illustrare il ruolo dei parametri Temperatura e Top P.


A proposito dell’architettura dei Generative Pre-trained Transformer (GPT) avevamo discusso della “temperatura”, parametro [1] sbarazzino che ci aveva fatto ricordare l’effetto di un buon bicchiere di vino. Sbarazzino ma cruciale per la tanto decantata generatività del sistema.

In realtà i chatbot disponibili in rete non consentono di intervenire su temperatura o altri parametri. Questi sono sistemi aggiustati con valori intermedi per l’utente generico, che non ha tempo e voglia di imparare a tarare la macchina. Sono quindi proposti con valori intermedi, che non possono certo essere ottimali per tutte le circostanze. Tuttavia i chatbot possono essere guidati attraverso il prompt engineering, l’arte di fare domande, che dobbiamo ancora discutere. Quindi perché occuparsi di questi parametri? Per due motivi: da un lato per capire meglio il funzionamento dei chatbot, quindi per imparare a prenderli per quello che sono, dall’altro perché i Large Language Model (LLM) possono essere usati non solo attraverso i chatbot direttamente accessibili in rete ma anche da altre applicazioni; modalità che può interessare le organizzazioni, ad esempio le scuole, come vedremo in seguito.

Continua (10 min)

Dello scrivere sull’AI

Questo articolo fa parte di una sorta di Corso accelerato sull’AI — il link conduce a un indice aggiornato.


Preziosi feedback (Maria Ranieri e Paola Bettega, Alberto Ardizzone, Adriana Mirabella e Laura Lucci, grazie!) inducono una riflessione.

Scrivere di AI è difficile: panorama sterminato, complicazioni matematiche, meandri linguistici e ritmi vertiginosi richiedono molto studio (la pensione aiuta!). Le breaking news quotidiane (stamani due) nella letteratura specializzata non danno respiro. Intanto Mainstream information e opinione pubblica oscillano fra sorti magnifiche e progressive e fosche apocalissi. In mezzo il caos.

Sono sicuro che valga la pena di lavorare per aiutare le persone a raccapezzarsi, soprattutto chi insegna. Non sono mai sicuro di riuscirci perché è difficile trovare una chiave narrativa che consenta di sbirciare sotto il cofano senza far perdere l’orientamento a persone con tante formazioni così diverse.

Ecco i feedback sono utilissimi, come a chi navigava di notte con il solo ausilio delle stelle e il cielo coperto. Ogni feedback è uno squarcio fra le nubi, una sola stella può aiutare a correggere la rotta.

E perché no, anche domande. Ogni suggerimento gradito.

Come difendersi dalle allucinazioni? Prendere le misure all’AI confrontando chatbot diversi

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


Premessa

Un chatbot può essere usato per una miriade di scopi, ognuno deve trovare la quadra per il caso suo. Qui mi concentro sull’uso scolastico, dove la questione non è se sia il caso di “fare usare l’AI ai ragazzi” oppure no. La usano, di fatto, e molto, per ricerca di informazioni e di spiegazioni. Si pone quindi l’imperativo di capirci qualcosa onde prendere il toro per le corna. Da questo articolo, un po’ noioso – mi dispiace, ma se non si va un po’ a fondo si rischia di parlare a vanvera – emerge che le prestazioni di questi sistemi sono indubbiamente sorprendenti e affascinanti ma fidarsene è un’altra cosa. Non possono essere usati alla stregua di fonti di informazioni, per via di variabilità delle risposte, vaghezza di talune costruzioni, contestualizzazioni errate, allucinazioni vere e proprie (panzane). Lasciati in mano agli studenti senza intervenire significa rinforzare ulteriormente il paradigma dell’apprendimento a pappagallo.

Continua (20 min)

Come difendersi dalle allucinazioni? Prendere le misure all’AI con un podcast

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


Abbiamo detto come per difendersi dalle allucinazioni dell’AI prima di tutto occorra darsi da fare per prenderle le misure nel contesto in cui la si vuole coinvolgere. Abbiamo fatto un esempio su un tema molto specifico. Volendo invece proporre qualcosa di interesse più generale viene in mente una perla fra le tante che si perdono nei flutti del Web. Si tratta del podcast Scusi il disturbo, realizzato da Stefano Balassone per Radio Immagina, una rubrica settimanale, che ha avuto luogo fra marzo e luglio 2023, di dialoghi “impossibili” con personaggi, del passato e del presente, interpretati dall’Intelligenza Artificiale. Nelle interviste, realizzate con character.ai, Balassone mette alla prova, abilmente e con molto garbo, le interpretazioni dell’AI di vari personaggi del passato, facendole quasi sempre seguire da interviste ad esperti, questi veri, per approfondire pensieri e panzane profusi dal sistema. Un’operazione brillante, istruttiva e con esiti a tratti esilaranti.

Continua per ascoltare i podcast

Come difendersi dalle allucinazioni? Un esempio e un primo rimedio

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


Abbiamo visto (Non esiste una AI generativa sicura) il problema fondamentale che genera le allucinazioni: verità fattuale e plausibilità sono due cose diverse e tutti i sistemi di Natural Language Processing esistenti sono strutturalmente orientati alla produzione di testi plausibili e non di verità fattuali. Vanno bene per tradurre ma non per dare risposte.

La prima cosa da fare è prendere le misure al sistema andando a esplorare qualche zona che si trova presumibilmente al confine del dominio su cui si è svolto l’addestramento. Per uso personale va tutto bene: l’AI è fantastica per giocare. Ma quando si tratta di usarla per “facilitare” il proprio lavoro è obbligatorio valutare i rischi di errore, con la consapevolezza che non ci potranno mai essere certezze. A titolo di esempio caliamo il discorso in un contesto educativo qualsiasi. Sono un insegnante e so che i miei studenti usano correntemente ChatGPT o similari. L’hanno fatto con Wikipedia, lo fanno con l’AI. È un dato di fatto. Magari io stesso propongo attività che ne facciano uso. Bene, prima di agire, o anche solo di esaminare gli elaborati degli studenti, occorre studiare le risposte su argomenti inerenti alle materie in questione ma che mettano a “disagio” il sistema. Questo si può fare cercando di portare il discorso su argomenti ai confini del dominio appreso dalla macchina, che sono più rari o più specifici.

Continua (10 min)

Non esiste una AI generativa sicura

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


Fuori dai denti:

Ad oggi non esiste un sistema di AI generativa sicuro.

Più precisamente: ad oggi non esiste nessun sistema di AI generativa che possa garantire l’assenza completa di allucinazioni nelle sue risposte.

Di conseguenza le fanfare su fasti imminenti in settori critici, quali ad esempio sanità, finanza, pubblica sicurezza sono mendaci. E in altri contesti l’impiego dell’AI va comunque valutato con molta attenzione.

Continua (7 min)

Transformer 1: il cavallo di battaglia dell’AI

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato. Allo stesso tempo fa parte di una trilogia dedicata al Transformer:

Transformer 1: il cavallo di battaglia dell’AI (questo articolo)
Un’introduzione moderatamente tecnica

Transformer 2: genesi e qualche domanda
Giusto la storia, facile da leggere

Transformer 3: Come funziona?
Un tentativo di guardare dentro al Transformer, per i più curiosi


Nella storia dell’intelligenza artificiale si alternano fasi di progressivo miglioramento di metodi apparentemente consolidati con accelerazioni dirompenti che stravolgono lo scenario in pochi mesi. È il caso dei transformer, di cui avevamo accennato precedentemente. Apparsi nel 2017, già dal 2019 in poi hanno soppiantato le reti neurali ricorrenti RNN (Recurrent Neural Network) che animavano tutte le applicazioni di natural language processing. Il successo di questa architettura ha investito anche altri campi dell’AI come la predizione della struttura tridimensionale delle proteine o la trasformazione di descrizioni testuali in immagini.

Continua (10 min)

Bibliografia

Articoli scientifici, riferimenti a newsletter di specialisti e altre risorse di cui mi sono servito per scrivere gli approfondimenti.
  1. AAAI Association for the Advancement of Artificial Intelligence (2025) Future of AI Research https://aaai.org/wp-content/uploads/2025/03/AAAI-2025-PresPanel-Report-Digital-3.7.25.pdf
  2. Abbott E.A. (2020) Flatlandia, Feltrinelli (Prima pubblicazione 1884)
  3. Affirming the Scientific Consensus on Bias and Discrimination in AI (2025) https://www.aibiasconsensus.org/
  4. Ameisen E. et al (2025) Circuit Tracing: Revealing Computational Graphs in Language Models. Transformer Circuits Thread (Anthropic) https://transformer-circuits.pub/2025/attribution-graphs/methods.html
  5. Balassone S. (2023) Scusi il disturbo — Chiacchiere con personaggi che furono o che sono (podcast) Radio Immagina
  6. Biese P. (2025) https://substack.com/@pascalbiese
  7. Bommasani R. e altri 114 autori (2022) On the opportunities and risks of foundation models arxiv.org:2108.07258
  8. Borji A. (2023) A Categorical Archive of ChatGPT Failures https://arxiv.org/abs/2302.03494
  9. Cameron R.W. (2024) Decoder-only transfomers: the workhorse of generative LLMs Deep (Learning) Foqus
  10. Chen C. (2025) China built hundreds of AI data centers to catch the AI boom. Now many stand unused MIT Technology Review https://www.technologyreview.com/2025/03/26/1113802/china-ai-data-centers-unused/
  11. Cho A. et al (2024) Transformer Explainer: Interactive Learning of Text-Generative Models https://arxiv.org/pdf/2408.04619
  12. Chomsky N., Roberts I. and Watumull J. (2023) The False Promise of ChatGPT The New York Times
  13. Dahl M. et al (2024) Large Legal Fictions: Profiling Legal Hallucinations in Large Language Models https://arxiv.org/abs/2401.01301
  14. Dash S. (2025) https://medium.com/@shaileydash
  15. Deepseek-AI (2024) DeepSeek-V3 Technical Report https://arxiv.org/abs/2412.19437
  16. Deepseek-AI (2025) DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning https://arxiv.org/abs/2501.12948
  17. de Gregorio Ignacio (2025) https://medium.com/@ignacio.de.gregorio.noblejas
  18. Denis O. (2025) https://www.linkedin.com/in/denis-o-b61a379a/
  19. Dumas C. (2025) How do Llamas process multilingual text? A latent exploration through activation patching. Proc. 41st Int. Conf. on Machine Learning. https://openreview.net/forum?id=0ku2hIm4BS
  20. Ferri A. (2025) Claude Code saved us 97
  21. Floridi L. (2025) https://www.linkedin.com/in/luciano-floridi/recent-activity/all/
  22. Funk Jeffrey (2025) https://www.linkedin.com/in/dr-jeffrey-funk-a979435/recent-activity/all/
  23. Jimenez C.E. (2025) SWE-bench: Can Language Models Resolve Real-World GitHub Issues? https://arxiv.org/abs/2310.06770
  24. Kang C, Choi H. (2023) Impact of co-occurrence on factual knowledge of large language models https://arxiv.org/abs/2310.08256
  25. Kauf C., Chersoni E., Lenci A., Fedorenko E., Ivanova A.A. (2024) Comparing plausibility estimates in base and instruction-tuned large language models arXiv:2403.14859
  26. Kim Y. et al (2025) Medical Hallucination in Foundation Models and Their Impact on Healthcare https://arxiv.org/abs/2503.05777
  27. Kurenkov A. (2020) A Brief History of Neural Nets and Deep Learning Skynet Today
  28. Lenci A. (2008) Distributional semantics in linguistic and cognitive research Rivista di linguistica 20: 1-31 https://www.italian-journal-linguistics.com/app/uploads/2021/05/1_Lenci.pdf
  29. Lenci A. (2023) Understanding natural language understanding systems. A critical analysis https://arxiv.org/abs/2303.04229
  30. Lindsay J. (2025) On the Biology of a Large Language Model. Transformer Circuits Thread (Anthropic) https://transformer-circuits.pub/2025/attribution-graphs/biology.html
  31. Lockett W (2025) https://medium.com/@wlockett
  32. Mitchel M. (2022) L’intelligenza artificiale — Una guida per esseri umani pensanti, Einaudi, Ed. originale 2019
  33. Mitchel M. (2025) Artificial Intelligence learns to reason. Science 387, Issue 6740 DOI: 10.1126/science.adw5211
  34. Nezhurina, Marianna & Cipolina-Kun, Lucia & Cherti, Mehdi & Jitsev, Jenia. (2024). Alice in Wonderland: Simple Tasks Showing Complete Reasoning Breakdown in State-Of-the-Art Large Language Models. 10.48550/arXiv.2406.02061.
  35. Nielsn M. (2019) Neural networks and deep learning. Dispobile in http://neuralnetworksanddeeplearning.com/
  36. OpenAI (2025) OpenAI o3 and o4-mini Systen Card https://cdn.openai.com/pdf/2221c875-02dc-4789-800b-e7758f3722c1/o3-and-o4-mini-system-card.pdf
  37. Peterson A.J. (2024) AI and the problem of knowledge collapsehttps://arxiv.org/abs/2404.03502
  38. Peterson A.J. (2025) AI and the problem of knowledge collapse. Springer https://link.springer.com/article/10.1007/s00146-024-02173-x
  39. Piad-Morffis A. (2024) Why reliable AI requires a paradigm shift Mostly Harmless Ideas
  40. Piad-Morffis A. (2024) Let’s build our own ChatGPT Mostly Harmless Ideas
  41. Piad-Morffis A. (2025) https://blog.apiad.net/s/mostly-harmless-ai
  42. Kheya A.G. et al (2024) The Pursuit of Fairness in Artificial Intelligence Models: A Survey https://arxiv.org/abs/2403.17333v1
  43. Knight W. (2025) Under Trump, AI Scientists Are Told to Remove ‘Ideological Bias’ From Powerful Models. Wired https://www.wired.com/story/ai-safety-institute-new-directive-america-first/
  44. Ranieri M., Cuomo S. Biagini G. (2024) Scuola e intelligenza artificiale, Carocci
  45. Raschka S. (2024) How good are the latest open LLMs? And is DPO better than PPO? Ahead of AI
  46. Ravichandiran S. (2021) Getting started with BERT Packt Publishing
  47. Shumailov I. et al (2024a) The curse of recursion: training on genereted data makes model forget https://arxiv.org/abs/2305.17493
  48. Shumailov I. et al (2024b) AI models collapse when trained on recursively generated data. Nature https://doi.org/10.1038/s41586-024-07566-y
  49. Sukhareva M. (2025) https://www.linkedin.com/in/msukhareva/
  50. Turness D. (2025) AI Distortion is new threat to trusted information. BBC https://www.bbc.co.uk/mediacentre/2025/articles/how-distortion-is-affecting-ai-assistants/
  51. Vasvani W., Shazeer N., Parmar N., Uskzoreit J., Jones .L, Gomez A.N., Kaiser L., Polosukhin I. (2017) Attention is all you need arXiv: 1706.03762 (ultima revisione 2023)
  52. Wendeler C., Veselovsky V, Monca G., WEst R. (2024) Do Llamas work in English? On the latent language model of multilinguam transformers arXiv:2402.10588
  53. Xu Y. (2024) A Survey on Multilingual Large language Models: Corpora, Alignment, Bias https://arxiv.org/abs/2404.00929