Come difendersi dalle allucinazioni? Prendere le misure all’AI con un podcast

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


Abbiamo detto come per difendersi dalle allucinazioni dell’AI prima di tutto occorra darsi da fare per prenderle le misure nel contesto in cui la si vuole coinvolgere. Abbiamo fatto un esempio su un tema molto specifico. Volendo invece proporre qualcosa di interesse più generale viene in mente una perla fra le tante che si perdono nei flutti del Web. Si tratta del podcast Scusi il disturbo, realizzato da Stefano Balassone per Radio Immagina, una rubrica settimanale, che ha avuto luogo fra marzo e luglio 2023, di dialoghi “impossibili” con personaggi, del passato e del presente, interpretati dall’Intelligenza Artificiale. Nelle interviste, realizzate con character.ai, Balassone mette alla prova, abilmente e con molto garbo, le interpretazioni dell’AI di vari personaggi del passato, facendole quasi sempre seguire da interviste ad esperti, questi veri, per approfondire pensieri e panzane profusi dal sistema. Un’operazione brillante, istruttiva e con esiti a tratti esilaranti.

Continua per ascoltare i podcast

Come difendersi dalle allucinazioni? Un esempio e un primo rimedio

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


Abbiamo visto (Non esiste una AI generativa sicura) il problema fondamentale che genera le allucinazioni: verità fattuale e plausibilità sono due cose diverse e tutti i sistemi di Natural Language Processing esistenti sono strutturalmente orientati alla produzione di testi plausibili e non di verità fattuali. Vanno bene per tradurre ma non per dare risposte.

La prima cosa da fare è prendere le misure al sistema andando a esplorare qualche zona che si trova presumibilmente al confine del dominio su cui si è svolto l’addestramento. Per uso personale va tutto bene: l’AI è fantastica per giocare. Ma quando si tratta di usarla per “facilitare” il proprio lavoro è obbligatorio valutare i rischi di errore, con la consapevolezza che non ci potranno mai essere certezze. A titolo di esempio caliamo il discorso in un contesto educativo qualsiasi. Sono un insegnante e so che i miei studenti usano correntemente ChatGPT o similari. L’hanno fatto con Wikipedia, lo fanno con l’AI. È un dato di fatto. Magari io stesso propongo attività che ne facciano uso. Bene, prima di agire, o anche solo di esaminare gli elaborati degli studenti, occorre studiare le risposte su argomenti inerenti alle materie in questione ma che mettano a “disagio” il sistema. Questo si può fare cercando di portare il discorso su argomenti ai confini del dominio appreso dalla macchina, che sono più rari o più specifici.

Continua (10 min)

Non esiste una AI generativa sicura

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


Fuori dai denti:

Ad oggi non esiste un sistema di AI generativa sicuro.

Più precisamente: ad oggi non esiste nessun sistema di AI generativa che possa garantire l’assenza completa di allucinazioni nelle sue risposte.

Di conseguenza le fanfare su fasti imminenti in settori critici, quali ad esempio sanità, finanza, pubblica sicurezza sono mendaci. E in altri contesti l’impiego dell’AI va comunque valutato con molta attenzione.

Continua (7 min)

Importante iniziativa per la libertà dei media

Segnalo un’iniziativa importante che invito a prendere in seria considerazione. In due parole, la faccenda riguarda l’annosa questione della lottizzazione politica della RAI che non è mai diventata realmente strumento pubblico indipendente per la diffusione di un’informazione di qualità, anziché essere declinato secondo gli interessi particolari delle parti politiche e gestito con logica meramente spartitoria.

L’iniziativa concerne la costituzione di un’Associazione per l’attuazione dell’art 5 dell’European Media Freedom Act.

L’occasione per attivarsi è data dai seguenti fatti:

Continua (3 min)