Alla ricerca dell’intelligenza… con una manopola o due…

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.

Sono debitore per i contenuti di questo post a Alejandro Piad Morffis, computer scientist dell’Università dell’Avana, in particolare per i grafici e la demo per illustrare il ruolo dei parametri Temperatura e Top P.


A proposito dell’architettura dei Generative Pre-trained Transformer (GPT) avevamo discusso della “temperatura”, parametro [1] sbarazzino che ci aveva fatto ricordare l’effetto di un buon bicchiere di vino. Sbarazzino ma cruciale per la tanto decantata generatività del sistema.

In realtà i chatbot disponibili in rete non consentono di intervenire su temperatura o altri parametri. Questi sono sistemi aggiustati con valori intermedi per l’utente generico, che non ha tempo e voglia di imparare a tarare la macchina. Sono quindi proposti con valori intermedi, che non possono certo essere ottimali per tutte le circostanze. Tuttavia i chatbot possono essere guidati attraverso il prompt engineering, l’arte di fare domande, che dobbiamo ancora discutere. Quindi perché occuparsi di questi parametri? Per due motivi: da un lato per capire meglio il funzionamento dei chatbot, quindi per imparare a prenderli per quello che sono, dall’altro perché i Large Language Model (LLM) possono essere usati non solo attraverso i chatbot direttamente accessibili in rete ma anche da altre applicazioni; modalità che può interessare le organizzazioni, ad esempio le scuole, come vedremo in seguito.

Continua (10 min)

Dello scrivere sull’AI

Questo articolo fa parte di una sorta di Corso accelerato sull’AI — il link conduce a un indice aggiornato.


Preziosi feedback (Maria Ranieri e Paola Bettega, Alberto Ardizzone, Adriana Mirabella e Laura Lucci, grazie!) inducono una riflessione.

Scrivere di AI è difficile: panorama sterminato, complicazioni matematiche, meandri linguistici e ritmi vertiginosi richiedono molto studio (la pensione aiuta!). Le breaking news quotidiane (stamani due) nella letteratura specializzata non danno respiro. Intanto Mainstream information e opinione pubblica oscillano fra sorti magnifiche e progressive e fosche apocalissi. In mezzo il caos.

Sono sicuro che valga la pena di lavorare per aiutare le persone a raccapezzarsi, soprattutto chi insegna. Non sono mai sicuro di riuscirci perché è difficile trovare una chiave narrativa che consenta di sbirciare sotto il cofano senza far perdere l’orientamento a persone con tante formazioni così diverse.

Ecco i feedback sono utilissimi, come a chi navigava di notte con il solo ausilio delle stelle e il cielo coperto. Ogni feedback è uno squarcio fra le nubi, una sola stella può aiutare a correggere la rotta.

E perché no, anche domande. Ogni suggerimento gradito.

Come difendersi dalle allucinazioni? Prendere le misure all’AI confrontando chatbot diversi

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


Premessa

Un chatbot può essere usato per una miriade di scopi, ognuno deve trovare la quadra per il caso suo. Qui mi concentro sull’uso scolastico, dove la questione non è se sia il caso di “fare usare l’AI ai ragazzi” oppure no. La usano, di fatto, e molto, per ricerca di informazioni e di spiegazioni. Si pone quindi l’imperativo di capirci qualcosa onde prendere il toro per le corna. Da questo articolo, un po’ noioso – mi dispiace, ma se non si va un po’ a fondo si rischia di parlare a vanvera – emerge che le prestazioni di questi sistemi sono indubbiamente sorprendenti e affascinanti ma fidarsene è un’altra cosa. Non possono essere usati alla stregua di fonti di informazioni, per via di variabilità delle risposte, vaghezza di talune costruzioni, contestualizzazioni errate, allucinazioni vere e proprie (panzane). Lasciati in mano agli studenti senza intervenire significa rinforzare ulteriormente il paradigma dell’apprendimento a pappagallo.

Continua (20 min)