Fare divulgazione seria su una materia così complessa come l’intelligenza artificiale è difficile. La narrativa dominante è drogata dall’appettibilità giornalistica dell’argomento. Il discorso scientifico muta in racconto fantascientifico perdendo contatto con i fondamenti su cui l’intelligenza artificiale è costruita. Essa diviene soggetto a sé stante, interlocutrice indipendente, addirittura “consapevole”. D’altronde non si può pretendere che tutti abbiano studiato algebra lineare, statistica e informatica.
Il Transformer non è certo l’unico strumento dell’AI ma ha generato l’esplorazione dei Large Language Model, dando le ali alla narrativa ebbra che si diceva. Aggiungo quindi un quarto tentativo (uno, due e tre i precedenti) per illustrarne il funzionamento, questa volta mediante una guida al Transformer Explainer, una bellissima demo sviluppata dai ricercatori del Data Science del Georgia Institute for technology.
L’invito è a giocarci per capire quanto sia difficile regolare un’architettura così complessa che per suo statuto matematico non è fatta per dire il vero ma sempre e solo il plausibile. Quasi tutto ciò che raggiunge il pubblico oggi si basa su questo mattone. Tutto quello che è seguito (“ragionamento”, chain of thought, agenti ecc.) nasconde ma non elimina le fragilità del meccanismo fondamentale. E i nodi vengono al pettine quando all’AI si chiede affidabilità o immaginazione vera, non mera interpolazione dei dati adoperati per l’addestramento. Utilissima ma non altro.

