MOOC — Vocabolario artificiale: dalla A alla I

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


I temi principali discussi in questa raccolta di approfondimenti sull’AI sono ora disponibili anche nel MOOC Vocabolario artificiale: dalla A alla I ospitato da Federica WebLearning.

Il MOOC è rivolto a chi ha difficoltà a racapezzarsi nella tempesta di acronimi dell’AI. Spiega in modo semplice i concetti fondamentali che sostengono i Large Language Model (LLM). Non copre tutto ciò che concerne le versioni “thinking”: chain-of-thought, varie forme di reinforced learning ecc. E non copre le altre forme di intelligenza artificiale, meno note ma non meno importanti, di cui ci occuperemo in futuro.

Si concentra solo sui concetti base perché pregi e difetti degli LLM si riverberano su tutto ciò che vi viene costruito sopra: capire i fondamenti serve a porre in una prospettiva corretta tutto il resto.

L’accesso al MOOC è gratuito.

Non cadere nella trappola degli annunci (GPT-5)

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


L’altro giorno mi serviva disegnare un diagramma di una semplice rete neurale. Per fare prima ho chiesto a ChatGPT, anche per provare la versione 5, comparsa il giorno prima.

Questo il prompt:

I need a diagram of a neural network composed by:
Input layer with 2 nodes
Hidden dense layer with 25 nodes
Output layer 1 node
Continua (5 min)

Piccola guida al Transformer Explainer

Fare divulgazione seria su una materia così complessa come l’intelligenza artificiale è difficile. La narrativa dominante è drogata dall’appettibilità giornalistica dell’argomento. Il discorso scientifico muta in racconto fantascientifico perdendo contatto con i fondamenti su cui l’intelligenza artificiale è costruita. Essa diviene soggetto a sé stante, interlocutrice indipendente, addirittura “consapevole”. D’altronde non si può pretendere che tutti abbiano studiato algebra lineare, statistica e informatica.

Il Transformer non è certo l’unico strumento dell’AI ma ha generato l’esplorazione dei Large Language Model, dando le ali alla narrativa ebbra che si diceva. Aggiungo quindi un quarto tentativo (uno, due e tre i precedenti) per illustrarne il funzionamento, questa volta mediante una guida al Transformer Explainer, una bellissima demo sviluppata dai ricercatori del Data Science del Georgia Institute for technology.

L’invito è a giocarci per capire quanto sia difficile regolare un’architettura così complessa che per suo statuto matematico non è fatta per dire il vero ma sempre e solo il plausibile. Quasi tutto ciò che raggiunge il pubblico oggi si basa su questo mattone. Tutto quello che è seguito (“ragionamento”, chain of thought, agenti ecc.) nasconde ma non elimina le fragilità del meccanismo fondamentale. E i nodi vengono al pettine quando all’AI si chiede affidabilità o immaginazione vera, non mera interpolazione dei dati adoperati per l’addestramento. Utilissima ma non altro.