Il laboratorio di tecnologie didattiche in 9 minuti

Mi sono trovato nella necessità di realizzare una “lezione zero” per il laboratorio di tecnologie didattiche destinato agli studenti dei corsi di laurea in Scienze della Formazione Primaria.

Un laboratorio ormai ben collaudato (10 edizioni, 2000 studenti) dal quale derivano anche altri interventi che mi capita di fare nel mondo della scuola.

Le attività, le modalità di partecipazione e di valutazione in nove minuti.

Rivoluzione AI? Scarse tracce e notevoli preoccupazioni

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.

Aggiornamento 18 agosto con la notizia del disimpegno del governo britannico dall’AI e un inciso sulla produzione artificiale di codice di Stephen Downes. Gli aggiornamenti sono riconoscibili dallo sfondo grigio.


Dicevamo che nella stampa specializzata si va avanti al ritmo di una breaking new al giorno in un susseguirsi frenetico di innovazioni e annunci epocali: nessuno scriverà più una riga di codice, dimenticate Excel, 15 modi per fare soldi con l’AI e via dicendo. Per non parlare dei corsi di AI applicata ad ogni angolo dello scibile. Ma il vento sta girando. Per dire: la corsa a modelli sempre più potenti sta generando risultati rapidamente decrescenti a fronte di costi in crescita esponenziale, i prossimi modelli richiederanno una quantità di energia incompatibile con la transizione energetica a meno che non si costruiscano apposite centrali nucleari, non esiste ad oggi un solo esempio di applicazione dell’AI su larga scala da parte di grandi aziende, il codice software prodotto dall’AI di norma non funziona, gli investitori iniziano a diffidare e le quotazioni delle maggiori aziende stanno crollando in misura proporzionale al coinvolgimento nell’AI.

Continua (15 min)

Alla ricerca dell’intelligenza… con una manopola o due…

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.

Sono debitore per i contenuti di questo post a Alejandro Piad Morffis, computer scientist dell’Università dell’Avana, in particolare per i grafici e la demo per illustrare il ruolo dei parametri Temperatura e Top P.


A proposito dell’architettura dei Generative Pre-trained Transformer (GPT) avevamo discusso della “temperatura”, parametro [1] sbarazzino che ci aveva fatto ricordare l’effetto di un buon bicchiere di vino. Sbarazzino ma cruciale per la tanto decantata generatività del sistema.

In realtà i chatbot disponibili in rete non consentono di intervenire su temperatura o altri parametri. Questi sono sistemi aggiustati con valori intermedi per l’utente generico, che non ha tempo e voglia di imparare a tarare la macchina. Sono quindi proposti con valori intermedi, che non possono certo essere ottimali per tutte le circostanze. Tuttavia i chatbot possono essere guidati attraverso il prompt engineering, l’arte di fare domande, che dobbiamo ancora discutere. Quindi perché occuparsi di questi parametri? Per due motivi: da un lato per capire meglio il funzionamento dei chatbot, quindi per imparare a prenderli per quello che sono, dall’altro perché i Large Language Model (LLM) possono essere usati non solo attraverso i chatbot direttamente accessibili in rete ma anche da altre applicazioni; modalità che può interessare le organizzazioni, ad esempio le scuole, come vedremo in seguito.

Continua (10 min)

Dello scrivere sull’AI

Questo articolo fa parte di una sorta di Corso accelerato sull’AI — il link conduce a un indice aggiornato.


Preziosi feedback (Maria Ranieri e Paola Bettega, Alberto Ardizzone, Adriana Mirabella e Laura Lucci, grazie!) inducono una riflessione.

Scrivere di AI è difficile: panorama sterminato, complicazioni matematiche, meandri linguistici e ritmi vertiginosi richiedono molto studio (la pensione aiuta!). Le breaking news quotidiane (stamani due) nella letteratura specializzata non danno respiro. Intanto Mainstream information e opinione pubblica oscillano fra sorti magnifiche e progressive e fosche apocalissi. In mezzo il caos.

Sono sicuro che valga la pena di lavorare per aiutare le persone a raccapezzarsi, soprattutto chi insegna. Non sono mai sicuro di riuscirci perché è difficile trovare una chiave narrativa che consenta di sbirciare sotto il cofano senza far perdere l’orientamento a persone con tante formazioni così diverse.

Ecco i feedback sono utilissimi, come a chi navigava di notte con il solo ausilio delle stelle e il cielo coperto. Ogni feedback è uno squarcio fra le nubi, una sola stella può aiutare a correggere la rotta.

E perché no, anche domande. Ogni suggerimento gradito.

Come difendersi dalle allucinazioni? Prendere le misure all’AI confrontando chatbot diversi

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


Premessa

Un chatbot può essere usato per una miriade di scopi, ognuno deve trovare la quadra per il caso suo. Qui mi concentro sull’uso scolastico, dove la questione non è se sia il caso di “fare usare l’AI ai ragazzi” oppure no. La usano, di fatto, e molto, per ricerca di informazioni e di spiegazioni. Si pone quindi l’imperativo di capirci qualcosa onde prendere il toro per le corna. Da questo articolo, un po’ noioso – mi dispiace, ma se non si va un po’ a fondo si rischia di parlare a vanvera – emerge che le prestazioni di questi sistemi sono indubbiamente sorprendenti e affascinanti ma fidarsene è un’altra cosa. Non possono essere usati alla stregua di fonti di informazioni, per via di variabilità delle risposte, vaghezza di talune costruzioni, contestualizzazioni errate, allucinazioni vere e proprie (panzane). Lasciati in mano agli studenti senza intervenire significa rinforzare ulteriormente il paradigma dell’apprendimento a pappagallo.

Continua (20 min)

Come difendersi dalle allucinazioni? Prendere le misure all’AI con un podcast

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


Abbiamo detto come per difendersi dalle allucinazioni dell’AI prima di tutto occorra darsi da fare per prenderle le misure nel contesto in cui la si vuole coinvolgere. Abbiamo fatto un esempio su un tema molto specifico. Volendo invece proporre qualcosa di interesse più generale viene in mente una perla fra le tante che si perdono nei flutti del Web. Si tratta del podcast Scusi il disturbo, realizzato da Stefano Balassone per Radio Immagina, una rubrica settimanale, che ha avuto luogo fra marzo e luglio 2023, di dialoghi “impossibili” con personaggi, del passato e del presente, interpretati dall’Intelligenza Artificiale. Nelle interviste, realizzate con character.ai, Balassone mette alla prova, abilmente e con molto garbo, le interpretazioni dell’AI di vari personaggi del passato, facendole quasi sempre seguire da interviste ad esperti, questi veri, per approfondire pensieri e panzane profusi dal sistema. Un’operazione brillante, istruttiva e con esiti a tratti esilaranti.

Continua per ascoltare i podcast

Come difendersi dalle allucinazioni? Un esempio e un primo rimedio

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


Abbiamo visto (Non esiste una AI generativa sicura) il problema fondamentale che genera le allucinazioni: verità fattuale e plausibilità sono due cose diverse e tutti i sistemi di Natural Language Processing esistenti sono strutturalmente orientati alla produzione di testi plausibili e non di verità fattuali. Vanno bene per tradurre ma non per dare risposte.

La prima cosa da fare è prendere le misure al sistema andando a esplorare qualche zona che si trova presumibilmente al confine del dominio su cui si è svolto l’addestramento. Per uso personale va tutto bene: l’AI è fantastica per giocare. Ma quando si tratta di usarla per “facilitare” il proprio lavoro è obbligatorio valutare i rischi di errore, con la consapevolezza che non ci potranno mai essere certezze. A titolo di esempio caliamo il discorso in un contesto educativo qualsiasi. Sono un insegnante e so che i miei studenti usano correntemente ChatGPT o similari. L’hanno fatto con Wikipedia, lo fanno con l’AI. È un dato di fatto. Magari io stesso propongo attività che ne facciano uso. Bene, prima di agire, o anche solo di esaminare gli elaborati degli studenti, occorre studiare le risposte su argomenti inerenti alle materie in questione ma che mettano a “disagio” il sistema. Questo si può fare cercando di portare il discorso su argomenti ai confini del dominio appreso dalla macchina, che sono più rari o più specifici.

Continua (10 min)

Non esiste una AI generativa sicura

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


Fuori dai denti:

Ad oggi non esiste un sistema di AI generativa sicuro.

Più precisamente: ad oggi non esiste nessun sistema di AI generativa che possa garantire l’assenza completa di allucinazioni nelle sue risposte.

Di conseguenza le fanfare su fasti imminenti in settori critici, quali ad esempio sanità, finanza, pubblica sicurezza sono mendaci. E in altri contesti l’impiego dell’AI va comunque valutato con molta attenzione.

Continua (7 min)

Importante iniziativa per la libertà dei media

Segnalo un’iniziativa importante che invito a prendere in seria considerazione. In due parole, la faccenda riguarda l’annosa questione della lottizzazione politica della RAI che non è mai diventata realmente strumento pubblico indipendente per la diffusione di un’informazione di qualità, anziché essere declinato secondo gli interessi particolari delle parti politiche e gestito con logica meramente spartitoria.

L’iniziativa concerne la costituzione di un’Associazione per l’attuazione dell’art 5 dell’European Media Freedom Act.

L’occasione per attivarsi è data dai seguenti fatti:

Continua (3 min)

Transformer 1: il cavallo di battaglia dell’AI

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato. Allo stesso tempo fa parte di una trilogia dedicata al Transformer:

Transformer 1: il cavallo di battaglia dell’AI (questo articolo)
Un’introduzione moderatamente tecnica

Transformer 2: genesi e qualche domanda
Giusto la storia, facile da leggere

Transformer 3: Come funziona?
Un tentativo di guardare dentro al Transformer, per i più curiosi


Nella storia dell’intelligenza artificiale si alternano fasi di progressivo miglioramento di metodi apparentemente consolidati con accelerazioni dirompenti che stravolgono lo scenario in pochi mesi. È il caso dei transformer, di cui avevamo accennato precedentemente. Apparsi nel 2017, già dal 2019 in poi hanno soppiantato le reti neurali ricorrenti RNN (Recurrent Neural Network) che animavano tutte le applicazioni di natural language processing. Il successo di questa architettura ha investito anche altri campi dell’AI come la predizione della struttura tridimensionale delle proteine o la trasformazione di descrizioni testuali in immagini.

Continua (10 min)