La distopia degli oligarchi dell’AI

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


Forse l’uomo non è abbastanza intelligente per trarre vantaggio dalla propria intelligenza. Pessimi usi di grandi scoperte. Il caso dell’AI è esemplare.

L’AI non è intelligente. È straordinariamente utile in mano a chi sa come funziona e sa quello che vuole fare. Gettata in pasto alle folle genera una distopia che manco Huxley e Orwell. Vediamo perché.

L’AI è matematica, solo matematica, nient’altro che matematica.

Nell’AI generativa le parole sono punti in spazi pluridimensionali dove le affinità semantiche diventano relazioni di vicinanza geometrica, i testi diventano nuvole di punti che si addensano in appartenenze semantiche.

Manipolando elementi dell’algebra lineare, vettori e matrici, si ricavano distribuzioni di probabilità di parole, parti di esse e punteggiature (token) sulle quali vengono scelti i termini per generare il testo.

Non c’è nessuna forma di intelligenza, di nessun tipo. Il vuoto di pensiero. Zero. Solo un sofisticatissimo sistema statistico di completamento del testo, o generazione di altri media, ma senza alcun ingrediente che possa far pensare a produzione di pensiero, a meno che non si creda alla magia.

Infatti l’AI funziona benissimo in mano a scienziati o professionisti consapevoli di capacità e trappole; può essere straordinariamente utile, sì, ma è anche estremamente fragile. È più instabile della fissione nucleare e può scappare dal recinto del buon senso senza alcun preavviso. Delicatissima, va tenuta in equilibrio con combinazioni di stratagemmi e regolazioni (temperatura, top-p, top-k ecc.) confezionati in modo empirico, senza alcuna teoria o razionale spiegazione di sorta. Se adoperata e riaddestrata più volte su corpora contaminati con testi prodotti dall’AI stessa degenera inesorabilmente generando non più senso ma caos.

Ma chi la regola? Chi la tiene in equilibrio? È questo il punto. L’AI è controllata da uno sparuto insieme di persone, sotto la pressione di interessi economici talmente grandi da divenire materia geopolitica. Si fa per dire controllata, corretta a posteriori semmai, pratica aberrante per chiunque sappia di statistica.

Chi sono dunque i maghi dell’AI? Intanto non c’è una sola AI ma ce ne sono tante. Migliaia, anche se quasi tutte sperimentali, oggetto di ricerca, come dovrebbe essere. Fra queste però ce ne sono alcune, pochissime, che sono riuscite a spingere i propri prodotti nel mercato e nella vita civile pompando una narrazione enfatica in grado di drenare capitali mostruosi sulla fiducia di prossimi fantasmagorici profitti. La quasi totalità dell’AI di cui parlano i media è alimentata da ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google), Copilot (Microsoft), Grok (Musk), Apple (embedded nei sui prodotti), LlaMA (Facebook). Si stanno recentemente aggiungendo i cinesi (DeepSeek, Manus) in modalità un po’ diverse.

Il fatto è che, per il momento, la quasi totalità dell’AI di cui si parla è americana, gira su server americani, è controllata da organizzazioni americane. Non sono uno di quelli che ce l’hanno con l’America perché a me ha dato quasi tutto quello che ho imparato di importante (ne parlerò altrove) ma ho una paura maledetta dell’America di oggi. Per capire bene il mio argomento occorre però fare un passo indietro.

Alla fine del millenio John Perry Barlow, poeta, autore dei testi dei Grateful Dead, attivista difensore delle libertà digitali (l’America era anche questo), scrisse la famosa Declaration of the Independence of Cyberspace (1996). Un testo che sembrava fatto apposta per infiammare gli ingenui come il sottoscritto. Grande eccitazione ma durò poco. Nel 1999 uscì Code: And Other Laws of Cyberspace, scritto da un avvocato ora professore a Harvard. Il sogno del cyberspace, dove gli spiriti liberi potevano dar corso alla creatività senza costrizioni o influenze da parte dei poteri forti naufragò miseramente sull’impietosa verità svelata da Lessig: il codice è la legge.

Laddove le istituzioni non ce la fanno a seguire gli sviluppi frenetici della tecnologia, non riuscendo a regolamentare i nuovi spazi che tutti possono frequentare gratuitamente (all’apparenza), sono le aziende che fanno le regole, attraverso il software scritto per offrire i servizi.

Insomma uno crede di essere libero invece vive in un recinto dove pochissimi decidono cosa non si può fare, cosa si può fare e come lo si può fare. Non solo, vive in un recinto dove esso stesso è merce che arricchisce a dismisura quei pochissimi.

Ebbene, l’AI porta questo schema all’ennesima potenza, attraverso uno strumento incontrollabile ma solo manipolabile, e con una quantità impressionante di difetti:

  1. distorsione di verità fattuali (allucinazioni: panzane)
  2. distorsione della varietà di risposte possibili su questioni non semplicemente decidibili
  3. grave incapacità di ragionamento reale (vedi problema di Alice)
  4. contaminazione delle forme linguistiche e di pensiero da parte delle lingue dominanti nei corpora adoperati per l’addestramento (>90
  5. impossibilità di eliminare bias etici (genere, etnia, paesi dominanti…)
  6. degenerazione dell’AI in presenza di contaminazione dei corpora di addestramento con informazioni prodotte dall’AI stessa
  7. collasso della conoscenza della società in presenza di larghe proporzioni di persone che optano per informazioni predigerite dall’AI
  8. controllo e manipolazione dell’AI da parte dei poteri — aziende e governi — che la producono

Alcuni di questi argomenti li dobbiamo ancora esaminare. Ora mettiamo in evidenza l’ultimo. L’articolo nel link è apparso su Wired un paio di settimane fa: Under Trump, AI Scientists Are Told to Remove “Ideological Bias” From Powerful Models —A directive from the National Institute of Standards and Technology eliminates mention of “AI safety” and “AI fairness.”

L’articolo spiega che il National Institute of Standards and Technology ha dato istruzione agli scienziati coinvolti con lo US Artificial Intelligence Safety Institute (AISI) di eliminare dalla lista dei requisiti dell’AI termini quali “sicurezza”, “responsabilità” e “correttezza” e di dare al contempo priorità a alla “riduzione dei pregiudizi ideologici, per consentire la prosperità umana e la competitività economica”.

Le disposizioni eliminano la menzione dello sviluppo di strumenti “per l’autenticazione dei contenuti e la tracciabilità della loro provenienza” e dell’“etichettatura dei contenuti sintetici”, riducendo l’interesse per il monitoraggio della disinformazione e delle informazioni false. L’accordo pone inoltre l’accento sulla necessità di mettere l’America al primo posto, chiedendo a un gruppo di lavoro di sviluppare strumenti di test “per espandere la posizione dell’America nell’IA a livello globale”.

Il controllo può essere anche più diretto e intrusivo: Musk ha più volte minacciato di chiudere l’accesso a Starlink dove e quando vuole, e probabilmente l’ha già fatto in varie circostanze.

E, allo stesso tempo, può anche essere più subdolo e implicito. L’ultima trovata del novello Cagliostro, Sam Altman, per tenere il mercato delle vacche in tiro, è Studio Ghibli, che consente di riformulare le vostre immagini nello stile dei cartoni giapponesi. Perché proprio Studio Ghibli? Perché non, che so, riprodurre le immagini in stile cubista? O alla maniera dell’acquarellista Adam Lister? Chi decide cosa possiamo fare? Una cosa è certa, non noi.

Insomma, siamo sicuri che sia una buona idea perfondere il nostro sistema produttivo e la vita dei cittadini con sistemi dall’enorme potenzialità strategica ma che vengono sviluppati e gestiti in un tale contesto?

Siamo sicuri di essere contenti di fare i creativi in modi decisi da pochissimi?

Tutto questo pare talmente delirante da superare i miseri mezzi espressivi del sottoscritto e non volendo indulgere in espressioni che vogliamo evitare in questo blog, rimaniamo… senza parole!

6 pensieri riguardo “La distopia degli oligarchi dell’AI”

  1. Non vedo alcun approfondimento, onestamente. Si dice che la AI e’ matematica, per cui e’ sicuramente intelligentissima, come lo e’ la matematica. Invece questo viene invertito, dicendo che se e’ tutta matematica, allora non puo’ essere intelligente. Perche’? Perche’ lo dice Formiconi. Nessun riferimento nella letteratura accademica, dove si dice che la matematica e’ il contrario dell’intelligenza.

    Si dice che c’e’ “zero pensiero”. Bene, come l’hai misurato? Boh. Non si sa. Qual’e’ l’unita’ di misura del pensiero? Boh. Ma lui sa che e’ “zero”, perche’ lo dice lui.

    La storia del pappagallo stocastico e del completamento del testo era sbagliata – tecnologicamente parlando – gia’ nelle prime versioni, non si tratta di reti di Markov. Oggi, che si aggiunge la CoT, non ha nulla a che vedere con qualsiasi cosa del genere, nemmeno sui VLLM piu’ primitivi.

    E poi, detto come va detto, posso descrivere come “modello stocastico” letteralmente qualsiasi cosa.

      1. Off topic. Perché questo vorrei preservare dei nostri pensieri…A volte mi fermo a pensare all’enorme divario culturale tra gli esseri umani. Intraspecie, si . Tutti “portatori sani “ di prospettiva individuale e poco inclini alla condivisione e alla sintesi esplicativa del proprio pensiero. Cosa vedo nella AI? Sintesi estrema, impoverimento cognitivo, ragionamento rigido, chiusura mentale, categorizzazioni. La fantasia, l’originalità, la creatività ecc rimarranno valori? L’emozione, il sentimento, l’affetto saranno proceduralizzati e categorizzati anch’essi? Sulla bilancia da un lato il progresso, dall’altra la deriva evolutiva verso una sorta di speciazione. Cosa manca? Il rispetto della diversità individuale. Il contatto “umano “ . Non lo so, ma penso che come tutte le “tecnologie distruttive” ci porterà verso un cambiamento radicale, soprattutto delle relazioni tra esseri umani. Non vediamo più l’altro come simile a noi. Come uso l’AI ? … ma sono veramente io che uso? Cerco di conservare la mia “scintilla interna” quella che mi fa sentire viva.

        1. Ciao Romina!
          Condivido le tue perplessità. Penso che il progresso non dovrebbe essere in opposizione all’umanità. Di per sé ne è anzi un’emanazione. Il problema, credo, emerge quando prevale un terzo elemento, che è il potere — profitto, denaro, vedilo come vuoi… — anch’esso connaturato all’umano. L’AI non è altro che uno dei tanti strumenti di calcolo scientifico, con pregi e difetti, che il professionista consapevole, o scienziato o altro, sa come gestire. Qui invece è successo che questa sorta di mitragliatore alla Johnny Stecchino — Eh lo so, è morto qualcuno in più ma si sa, il mitragliatore ha il ventaglio largo, son cose che succedono, ecchecazzo non si può più lavorare! — è stato gettato in pasto alle folle senza alcuna preparazione, dello strumento da un lato, che è tutto fuorché maturo, e delle folle, che sono tutto fuorché preparate. Si chiama vendere l’anima al diavolo…

Vengono pubblicati solo commenti che recano nome e cognome

Scopri di più da Andreas Formiconi

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere