Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.

Una ex collega, Giovanna Danza, membro del Direttivo della Libera Università Valdisieve e Valdarno, mi ha chiesto di dare un contributo sull’AI.
Discorrendo sul da fare è venuta fuori un’instantanea verace del punto a cui sono arrivato in questo percorso, che ho chiamato forse impropriamente Corso accelerato sull’AI — quando avrò capito cosa sto facendo troverò anche il nome. La riporto qui così com’è, in forma di lettera.
Dunque, devo (per colpa mia) fare un intervento secco su una materia che è diventata poliforme, gigantesca, controversa e soggetta a uno sviluppo mostruoso. Non passa giorno che non mi trovi a leggere un articolo imperdibile. Una breaking new al giorno, in sostanza, e quasi tutte effettivamente breaking. Un massacro (godurioso però).
Per affrontare questo gigante in due ore posso sperare di fare una cosa sola: disturbare. Non chiarire, non tranquillizzare, perché i primi ad essere confusi e preoccupati sono gli scienziati che la sviluppano, l’AI. Frankestein, né più né meno. O il bambino attonito di “Vango per passione”, dei Gatti Mezzi, dove c’è quello che gli dice: “Dé, bada che popo’ di buca t’ha fatto…”. E gli scienziati, non pochi di loro, dedicano cospicue energie a studiare questa buca e a capire come faccia il Frankestein che c’è dentro a tirarle fuori, quel cavolo di caratteristiche emergenti che loro manco ci avevano pensato!
Questo per dire il mood della chiacchera.
Per creare questa doccia scozzese la dividerei in due parti, circa 1/3 e 2/3.
1/3
Mostrare con due o tre esempi il mio entusiasmo per questo straordinaria conquista del pensiero scientifico. Far vedere che per uno specialista del calcolo scientifico sia come ritrovarsi finalmente nel Paese dei Balocchi, quello vero, dove i balocchi sono infiniti e sempre uno più bello del precedente.
Adopererò esempi nei quali uno che ha programmato computer da quarant’anni in una trentina di linguaggi diversi, su tutto il range di macchine possibili, dalle schede di calcolo per potenziare i PC ai supercomputer del Cineca, si ritrovi oggi a risolvere problemi software in una frazione del tempo (~1/5) grazie all’AI. Entusiasta al punto di starci in fissa, dialogante con una varietà di Chatbot (ChatGPT, Claude, DeepAI, Gemini, Copilot…) di cui uno programmato sul proprio computer usando un modello open source (Mistral). Mai divertito così tanto in un’attività che è sempre stata il mio massimo divertimento.
Riconoscerò l’estrema utilità dei metodi dell’AI quando ben sigillati (embedded) in funzionalità specifiche che stiamo già usando tutti a profusione da tempo.
Ma approfitterò per insinuare un po’ di dubbio, svelando come il calcolo scientifico fosse già da tempo anche un’arte — Numerical Recipes, The Art of Scientific Computing (Press, Teukolsky, Vetterling e Flannery, Cambridge University Press, 1986-1982) è il titolo del testo fondamentale per quelli che hanno fatto il mio mestiere. Perché i meravigliosi e perfetti concetti dell’analisi matematica diventano molto bizzosi se costretti nella finitezza di bit, byte e tempi umani. Insomma uno dei tanti aspetti di tutta la scienza del Novecento che ha scoperto l’incerto nel certo delle scienze, anche di quelle cosiddette esatte. E così si prepara il terreno per la seconda parte…
2/3-3/3
… ove (ri)scopriamo che vale l’induzione quanto la deduzione. Perché il lavoro dello specialista di AI è veramente sia arte che ingegneria, arte nel senso dell’artigiano, che ti dice che la calcina è pronta quando la betoneria (bidoniera dalle mie parti…) “canta”, o che di farina gialla ce ne devi buttare finché la zuppa ti “riempie l’occhio”. Perché è questo — un esempio fra tanti — quello che fanno gli ingegneri di OpenAI (o altri) quando aggiustano i parametri del sistema (Temperature, Top-P…) affinchè sia generativo (briachello…) al punto giusto.
Ma che c’è dentro l’AI? Niente. Pardon, volevo dire niente di “intelligente”, c’è solo statistica. Sofisticatissima statistica, meravigliose architetture informatiche, trasformatori magici che operano in labirinti di reti neurali. Ma nessun pensiero. Spieghiamo alla svelta come le parole (o parti di esse: token) siano immediatamente trasformate in posizioni (vettori) in spazi pluridimensionali — 4096 nel modello più sofisticato che sto usando. Una parola, “gatto” per esempio, diventa una collezione di 4096 numeri. Si chiamano spazi semantici ma le relazioni fra le parole non sono viste semanticamente ma solo in termini di vicinanza fra posizioni (vettori, per chi ha trascorsi matematici: la vicinanza semantica si calcola come prodotto scalare fra questi vettori, tanto più allineati, quanto alto il prodotto scalare e quindi più vicini).
E che ci fanno in questi spazi i Trasformatori Pre-istruiti Generativi (GPT: Generative Pretrained Transformer)? Una sola cosa: partendo da un testo ricevuto (input) indovinano (scelgono a caso fra un insieme di parole più probabili) la prossima parola. E basta, solo che ripetono ricorsivamente questo processo fino a formare un testo completo da mostrare (output). Ricorsivamente vuol dire che ogni nuova parola “indovinata” viene aggiunta al testo originario formando un nuovo input a partire dal quale “indovinare” la parola dopo e così via. Messaggio da portare a casa: zero intelligenza. Però funziona. Ma in contesti precisi, con vincoli precisi e molta attenzione umana, che spesso si risolve in maggiore impiego di tempo, non minore.
Ma non si sa come funziona! I lavori di reverse engineering, dove ci si arrampica a ritroso, a partire dagli strati di nodi (neuroni) più vicini all’output, a quelli più profondi verso l’input, sono innumerevoli. Ad esempio, “Do language models work in English?” si sono domandati alcuni ricercatori dell’EPFL nel febbraio scorso. Dove attraverso un’arrampicata di sesto grado verso gli strati di nodi profondi scoprono che per tradurre parole dal francese al cinese la mente artificiale passa dall’inglese! Che guarda caso predomina nel suo “sapere”: il 93
L’AI generativa è generativa ma banale, non creativa! L’implosione della conoscenza, titola un recente lavoro. Che è poi la posizione di Chomsky, che avvalla la sentenza Generative AI is autocompletion on steroids (T9 col turbo). Il motore dei Large Language Model è statistico, solo statistico. Quindi va sempre verso il probabile. La conoscenza umana cresce invece grazie alla ricerca dell’improbabile (induzione). La teoria della relatività generale di Einstein rende più accuratamente ragione della forza di gravità rispetto a quella di Newton, interpretandola come una curvatura dello spazio-tempo, ma non è certamente la spiegazione più probabile! Se popoli interi baseranno le loro azioni su uno strumento accentratore del pensiero, il rincretinimento globale è assicurato su un piatto d’argento.
L’AI dice bugie. Essì, ogni tanto le scappano ma lo fa cercando di non farsi scoprire: circa il 3-5
L’AI non può essere utilizzata in applicazioni critiche, dove l’errore non è concesso. Ad esempio nella diagnostica medica. Non può essere utilizzata in modo automatico, tale da sostituirsi al medico. Può invece essere usata dal medico come strumento di consultazione da usare in modo critico, per poi formulare in prima persona la diagnosi. Stesso discorso per la guida automatica. Non ci sarà mai un’automobile autonoma nel traffico odierno. Un recente articolo ha titolato “Elon Musk non ha capito l’AI”. Vero, pagherà le conseguenze (anche per altri motivi).
L’AI è insostenibile. Nelle previsioni di tutti i maggior attori del settore si parla di centrali nucleari dedicate alla produzione dell’energia richiesta dai prossimi modelli di linguaggio, si parla di un fabbisogno non inferiore a quello di una città di medie dimensioni (in America, dove si spreca tantissimo). Quindi, in collisione diretta con la transizione energetica con un’unica via di uscita: il nucleare. A meno che non si trovino algoritmi completamente diversi.
L’AI è un fallimento industriale. Non esistono ad oggi applicazioni industriali/aziendali significative dell’AI generativa. Quelli che ci hanno provato hanno fallito. Amazon per esempio, che poi è tornata all’antico. Siamo in regime di margini di miglioramento sempre più piccoli a fronte di investimenti in crescita esponenziale. Tipo raddoppio l’investimento per ottenere un miglioramento del 5
L’AI è americana! È il tema della colonizzazione culturale, già accennato, ma, e anche di conseguenza non solo. Va di moda essere antiamericani. Io non lo sono per nulla perché alla cultura scientifica americana mi sono nutrito abbondantemente, ne sono intriso, sarei ipocrita a negarlo. Ma ciò non significa non vedere i problemi. E questo è l’elefante nella stanza. Qui si apre il discorso dell’open source. I modi ci sono ma occorre svegliarsi. Soprattutto dibattere meno (sapendo poco), studiare di più e intraprendere. Infine, per dar senso a ciò, discorsino telegrafico sul modello open source Mistral (francese) di cui s’era detto.
Da uno che non sa sistemare neanche l’orologio dell’auto quando mettono o tolgono l’ora legale non posso che ringraziare per la chiarezza
e il discorsino su Minstral ? :
Ciao Spartaco, sì il post è tronco, perché è nato come traccia da rendere a Giovanna, poi ho visto che girava e l’ho infilato nel blog senza fare altro. Quando farò quell’intervento userò quella chiusa per lasciare un ricordo più forte del ruolo dell’open source. Comunque, nei prossimi due post o giù di lì, parlerò proprio anche di Mistral e dintorni.
Grazie!