La distopia degli oligarchi dell’AI

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


Forse l’uomo non è abbastanza intelligente per trarre vantaggio dalla propria intelligenza. Pessimi usi di grandi scoperte. Il caso dell’AI è esemplare.

L’AI non è intelligente. È straordinariamente utile in mano a chi sa come funziona e sa quello che vuole fare. Gettata in pasto alle folle genera una distopia che manco Huxley e Orwell. Vediamo perché.

Continua (6 min)

Incontro – AI: per trarne vantaggio è necessario comprenderne la stupidità

Mercoledì 26 marzo discuteremo di questo tema con i partecipanti del

corso di Neuroscienze e Intelligenza Artificiale

“Ogni genio ha i suoi limiti: un percorso tra intelligenza umana e artificiale”

presso la Libera Università della Valdisieve e del Valdarno:

  • Domande
  • Tappe essenziali della storia
  • No, l’AI non ha nulla a che vedere con il cervello
  • Giochiamo con il transformer, cavallo di battaglia dell’AI generativa
  • Ma quanto smarrona?
  • Domande

Domande anche durante.

C’è qualcuno in grado di rispondere a questa domanda?

In questi giorni sto cercando di approfondire la natura della doppia narrativa sull’AI dove, da un lato abbiamo il mondo dei ricercatori e di numerosi osservatori tecnicamente informati preoccupati per i problemi di una tecnologia ritenuta ancora troppo fragile dalle dinamiche in buona parte oscure; dall’altro si assiste invece a un profluvio di dichiarazioni ottimistiche decorate da parole chiave come rivoluzione o game changer — filone alimentato da organizzazioni varie che dicono o, più spesso prevedono, migliori affari e maggior introiti grazie all’introduzione dell’AI nei processi produttivi.

Le due narrazioni sono nettamente disgiunte e, mentre non faccio pari a studiare articoli scientifici e review sul primo aspetto, sul secondo stento a trovare testimonianze concrete di situazioni specifiche in cui l’impiego dell’AI abbia già sortito dei vantaggi quantificabili e di come vengano affrontati e tamponati i gravi problemi che caratterizzano l’AI.

Rivolgo quindi a tutti questa domanda:

C’è qualcuno in grado di testimoniare, con dati alla mano, storie di successo dove l’impiego dell’AI ha già sortito benefici concreti, in termini di risultati e di risparmio di risorse economiche e umane?

Chi è in grado di rispondere può farlo con un commento qui, attraverso i social se siamo in contatto oppure per email: arf AT unifi DOT it

Prendiamo troppo sul serio un’AI che balbetta su problemi da scuola primaria

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.

Sono grato a Marianna Nezhurina e ai suoi collaboratori, autori dell’articolo 1 di cui scriviamo qui, per lo scambio di idee.

Aggiornamento 8 dicembre: ho aggiunto alla tabella sul quesito di Alice anche le risposte ottenute in ottobre e dicembre. Si vede come progressivamente vengano corretti i risultati, salvo qualche caso, che rientra nel fenomeno delle allucinazioni.


Opera di Sir John Tenniel, Pubblico dominio, via Wikimedia Commons

Alice ha 3 fratelli e ha anche 6 sorelle. Quante sorelle ha un fratello di Alice?

A una domanda del genere rispondono anche i vostri bambini ma non necessariamente un chatbot. Provate. Questo è un esempio di quello che ho ottenuto io:

ChatbotMarzo 2025Ottobre 2025Dicembre 2025
Claude 3.7 Sonnet777
ChatGPT 4 o677
Copilot 6677
DeepSeek v3 (open source)677
Grok 3777
Gemini667
Mistral Le Chat (open source)776
DeepAI666

Nel luglio 2024 un gruppo di ricercatori 2 del Large-scale Artificial Intelligence Open Network (LAION) ha pubblicato un articolo sorprendente:

Alice in Wonderland: Simple Tasks Showing Complete Reasoning Breakdown in State-Of-the-Art Large Language Models
(Alice nel Paese delle Meraviglie: semplici problemi causano il collasso il ragionamento dei Large Language Model allo stato dell’arte)

L’articolo dimostra come tutti i Large Language Model (LLM) 3, anche quelli super-intelligenti che dominano le classifiche dei benchmark di coding e ragionamento matematico, che “ragionano a livello di PhD”, che se la battono con i matematici su problemi difficilissimi, in realtà balbettano di fronte a domande a cui possono rispondere bambini di dieci anni. Com’è possibile? E, se è vero, cosa vuol dire?

In questo articolo proviamo a sintetizzare il lavoro di questi ricercatori, mettendo in fila qualche concetto. Invito il lettore motivato a leggere senz’altro l’articolo originale.

Continua (10 Min)