Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.
Forse l’uomo non è abbastanza intelligente per trarre vantaggio dalla propria intelligenza. Pessimi usi di grandi scoperte. Il caso dell’AI è esemplare.
L’AI non è intelligente. È straordinariamente utile in mano a chi sa come funziona e sa quello che vuole fare. Gettata in pasto alle folle genera una distopia che manco Huxley e Orwell. Vediamo perché.
In questi giorni sto cercando di approfondire la natura della doppia narrativa sull’AI dove, da un lato abbiamo il mondo dei ricercatori e di numerosi osservatori tecnicamente informati preoccupati per i problemi di una tecnologia ritenuta ancora troppo fragile dalle dinamiche in buona parte oscure; dall’altro si assiste invece a un profluvio di dichiarazioni ottimistiche decorate da parole chiave come rivoluzione o game changer — filone alimentato da organizzazioni varie che dicono o, più spesso prevedono, migliori affari e maggior introiti grazie all’introduzione dell’AI nei processi produttivi.
Le due narrazioni sono nettamente disgiunte e, mentre non faccio pari a studiare articoli scientifici e review sul primo aspetto, sul secondo stento a trovare testimonianze concrete di situazioni specifiche in cui l’impiego dell’AI abbia già sortito dei vantaggi quantificabili e di come vengano affrontati e tamponati i gravi problemi che caratterizzano l’AI.
Rivolgo quindi a tutti questa domanda:
C’è qualcuno in grado di testimoniare, con dati alla mano, storie di successo dove l’impiego dell’AI ha già sortito benefici concreti, in termini di risultati e di risparmio di risorse economiche e umane?
Chi è in grado di rispondere può farlo con un commento qui, attraverso i social se siamo in contatto oppure per email: arf AT unifi DOT it
Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.
Sono grato a Marianna Nezhurina e ai suoi collaboratori, autori dell’articolo 1 di cui scriviamo qui, per lo scambio di idee.
Aggiornamento 8 dicembre: ho aggiunto alla tabella sul quesito di Alice anche le risposte ottenute in ottobre e dicembre. Si vede come progressivamente vengano corretti i risultati, salvo qualche caso, che rientra nel fenomeno delle allucinazioni.
Opera di Sir John Tenniel, Pubblico dominio, via Wikimedia Commons
Alice ha 3 fratelli e ha anche 6 sorelle. Quante sorelle ha un fratello di Alice?
A una domanda del genere rispondono anche i vostri bambini ma non necessariamente un chatbot. Provate. Questo è un esempio di quello che ho ottenuto io:
L’articolo dimostra come tutti i Large Language Model (LLM) 3, anche quelli super-intelligenti che dominano le classifiche dei benchmark di coding e ragionamento matematico, che “ragionano a livello di PhD”, che se la battono con i matematici su problemi difficilissimi, in realtà balbettano di fronte a domande a cui possono rispondere bambini di dieci anni. Com’è possibile? E, se è vero, cosa vuol dire?
In questo articolo proviamo a sintetizzare il lavoro di questi ricercatori, mettendo in fila qualche concetto. Invito il lettore motivato a leggere senz’altro l’articolo originale.