Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.

Abbiamo già detto di natura e cause delle allucinazioni AI ma le spiegazioni valgono forse meno degli esempi.
Può succedere che ti venga la curiosità di vedere cosa sa di te un chatbot? Certo, pensiamo che sia un esercizio comune.
E può succedere di venire a sapere che sei un pedofilo nonché pericoloso criminale fuggito da un istituto psichiatrico? Ma dai, non esageriamo…
Invece sì, è successo recentemente al giornalista tedesco Martin Bernklau. La notizia è reperibile su numerose fonti.
Perfetto per documentare quanto avevamo spiegato:
l’AI generativa costruisce discorsi una parola dietro l’altra in base a mere affinità statistiche misurate negli spazi semantici in cui esse vengono collocate. Niente a che vedere con affinità semantiche.
Questo spiega nella fattispecie la cantonata presa da Copilot. Martin Bernklau è un giornalista che si occupa di questioni giudiziarie, quindi ha scritto di pedofili, spacciatori di droga e criminali d’ogni sorta ecc.
Copilot ha trasformato l’ovvia affinità statistica in falsa affinità semantica.
Tutto qui.
Come spiegarsi il profluvio di previsioni intorno alle magnifiche sorti e progressive dell’AI? Semplice. Le allucinazioni occorrono nella misura di qualche percento. Sta a significare che per trovarne una devo ripetere la stessa domanda almeno un centinaio di volte, meglio un po’ di più. Uno percento vuol dire quasi mai quindi l’impressione che ricevo è positiva. Ma quell’una volta su cento che capita può essere letale.
L’AI rappresenta un’opportunità fantastica ma la narrativa prodotta dagli oligopoli per ottenere i gargantueschi capitali di cui necessita è criminale.
Quello citato nel post non è un caso isolato. Un paio di giorni fa (13.12.24) è uscito un articolo sul sito della BBC dove la medesima lamenta la pubblicazione di una notizia falsa fra le headlines prodotte dalle ultime versioni dell’iPhone dotato di AI. Secondo la notizia la BBC avrebbe pubblicato un articolo secondo il quale Luigi Mangione, imputato dell’omicidio di un amministratore delegato di una compagnia di assicurazioni, si sarebbe suicidato. La notizia è falsa e la BBC lamenta la gravità del fatto, data la proverbiale affidabilità che rappresenta una delle sue prerogative più importanti. L’articolo in questione cita anche altri casi di gravi imprecisioni diffuse tramite strumenti di AI generativa.