Claude Code: entusiasmo e qualche angoscia

Questo articolo fa parte di una serie di approfondimenti sull’AI — il link conduce a un indice aggiornato.


In breve

Claude Code è un agente: non genera solo testo ma fa cose. Gli agenti impiegano LLM per generare testo ma hanno anche altre componenti perché l’azione richiede determinismo. Funzionano molto bene, se i compiti sono ben definiti e non troppo complessi. Per un boomer cresciuto con il terminale, Claude Code è uno sballo: l’antico nel futuro. Esilarante da rischiare di diventarne dipendente. Potrebbe essere un problema? Ma soprattutto, chi paga il conto? In parte noi, quando scopriamo che dopo averci fatto venire la voglia tocca pagare per continuare. In realtà il conto è assai più salato. L’utenza esplode e le big tech faticano sempre più a tenere il passo con la domanda. Gli investimenti gonfiano ma i ritorni per ora languono. Il fabbisogno di energia generato dall’AI incide sulla distribuzione, amministrazioni locali e cittadini iniziano ad opporsi. E tutto questo avviene soprattutto in America, che è un’altra parte ancora del problema. A quando un minimo di stabilità?


Claude Code nella versione più potente funziona preferibilmente nel Terminale. Non per un vezzo vintage ma perché chi lavora col codice spesso lo predilige rispetto alle interfacce grafiche.

Le buone notizie

Non ci siamo risparmiati dubbi sull’AI in questo blog. Non per partito preso ma perché cerchiamo di orientarci in un mondo così nuovo, complesso e dinamico. Tuttavia molti dei problemi discussi riguardavano i Large Language Model (LLM) mentre gli strumenti offerti al pubblico sono sempre meno solo LLM ma sempre più “neurosimbolici”, ovvero composti di reti neurali (LLM alla larga) ma anche di intelligenza artificiale simbolica.

Nel codice diffuso poco tempo fa accidentalmente da Anthropic (vedi l’articolo di Gary Marcus) si trovano ampie sezioni che i padri dell’AI simbolica non avrebbero avuto difficoltà a riconoscere: codice classico, zeppo di biforcazioni (if-then-else) e nidificazioni ricorsive, ma tutto codice deterministico e non statistico come gli LLM. Molti preconizzano da tempo l’evoluzione verso sistemi ibridi statistico-deterministici. E la cosa è piuttosto ovvia perché un conto è generare testo, un altro agire. Serve generatività ma serve anche riproducibilità. Probabilmente la direzione giusta.

Bene, ma che c’entra il terminale nella figura? È la scelta di Anthropic per Claude Code, destinata a developers, builders, hackers, tinkerers, engineers, programmers, makers, creators, debuggers, inventors, shippers, comunque gente che spesso lavora preferibilmente con testo piuttosto che con interfacce grafiche. La norma per chi ha conosciuto i computer attraverso terminali neri, che però nel frattempo non erano morti ma hanno covato come brace sotto la cenere nella forma del “Prompt dei comandi” e della “PowerShell” in Windows, o nel “Terminale”di Linux e Mac, tutti utili per i suddetti soggetti usi a scriverli i comandi. E, scoperta nella scoperta, ci accorgiamo che in Windows 11 si può installare facilmente un sistema Linux a scelta accessibile dal terminale1. Il boomer zampetta felice sulla tastiera. Non diciamo altro sul terminale, eccetto ricordare che Claude Code esiste anche in versione grafica — Claude Desktop — ma questa non gode di tutte le funzionalità della versione per terminale.

Ci voleva un’occasione per veder di che si tratta. Ottima quella di dover fare ordine in 850 note esportate da Evernote, un’applicazione web molto efficiente ma, come al solito, sempre più esosa. Le note sono in un formato comunemente usato per lo scambio di informazioni (XML) fra applicazioni ma scomodo da leggere. Premesso che i dati in Evernote consistevano in circa 850 note distribuite in 35 “taccuini”, non è stato difficile chiedere a Claude Code di…

  • estrarre da ciascun taccuino le singole note, inserendo in ciascuna di esse un’etichetta (tag) con lo stesso nome del taccuino di origine
  • tradurre ogni nota in un file .md (formato markdown, facile da manipolare ma anche molto comodo da gestire con l’AI)

Una decina di minuti. Quanto tempo ci avrei messo facendo il lavoro a mano? Un tempo infinito perché non avrei mai avuto voglia di farlo. Ma anche dieci minuti spesi bene, perché il processo è trasparente: l’agente mostra esattamente tutti i passaggi, i test intermedi che realizza autonomamente e la lista del programma Python scritto al volo per eseguire il lavoro completo ma, prima di qualsiasi azione che comporti la scrittura di dati, chiede sempre l’ok. Siamo stati noi ad impostare l’agente in maniera da chiedere sempre il permesso prima di agire ma questo rimane comunque un momento delicato dove si è combattuti fra la tentazione di dire sempre di sì per arrivare presto al risultato invece di prendersi tempo per comprendere i passaggi e eventualmente correggere qualcosa.

E ora? La fame vien mangiando. Azzardo:

A questo punto propongo qualcosa di più complesso. Prima di tutto copia tutti i file .md in una sottocartella di nome files_md. Poi ti chiedo di analizzare ciascun file in questa sottocartella per creare dei cluster (nello spazio semantico), ciascuno caratterizzato da un tag che scegli tu. Ad esempio tutte le note che parlano di AI è probabile che le classifichi con tag AI. Questo tag scelto da te lo devi scrivere in modo riconoscibile fra i metadati di ciascun file.

Pensavo di avere esagerato perché non si trattava di semplice riorganizzazione dei dati ma di qualcosa di più complicato, come scegliere l’algoritmo matematico adeguato, installare i relativi pacchetti software, scrivere un programma Python che leghi tutto insieme. Invece si orienta subito:

Procedo per fasi. Prima copio i file, poi verifico le librerie disponibili per il clustering semantico

La risposta dà l’idea che l’agente abbia “capito” perfettamente. Mentre lavora vedo cosa sta facendo e nel frattempo posso documentarmi. Per esempio dalle librerie che scarica mi rendo conto del metodo che intende usare. Verifico e mi pare appropriato. In pratica si tratta di due componenti: uno che serve a trasformare ciascun documento in una posizione (vettore) nello spazio semantico e l’altro che individua gli addensamenti dei documenti in base ai loro contenuti2.

È loquace, mentre lavora spiega. Per esempio che le suddette librerie non le può installare perché non ha i diritti per accedere al mio computer. In effetti non gliel’ho dati perché non mi fido. Ma non si blocca, cerca alternative e trova una versione semplificata delle librerie, mi informa di questo e procede, generando lo script Python per creare i cluster. Lo lancia, dopo avere chiesto il permesso. Pochi secondi ed ecco il risultato.

La situazione è interessante: soddisfazione per un lavoro che sarebbe stato impossibile da fare a mano, delusione per la scarsa qualità. Sì, alcuni cluster sono adeguati ma non il cluster enorme che si è mangiato più della metà dei documenti, o la coda di piccoli addensamenti intorno a termini scarsamente significativi. Chiedo:

Ma non è che le librerie proposte all'inizio esprimono algoritmi migliori? 

Sì, mi spiega, snocciolando una serie di motivazioni che mi paiono sensate.

Bene, allora cosa mi suggerisci per utilizzare queste librerie senza che tu possa pasticciare sul mio disco? 

Mi propone un modo adeguato per installare per conto mio le librerie nell’ambiente di lavoro.

Perfetto, ripartiamo daccapo. Lo script Python viene riscritto (377 righe) e rilanciato. In effetti va molto meglio ma certamente non ancora bene. Mi propone una serie di aggiustamenti, che approvo nella maggior parte dei casi. Altri li propongo io. La collaborazione, lunga, articolata, si fa interessante. I cluster sono quelli giusti ma diventa evidente che non rimane che armarsi di pazienza e andare a spulciare le note che sono andate palesemente fuori posto. Un po’ noioso ma a questo punto fattibile. Procediamo per iterazioni successive. Ogni volta scopro altri documenti da ricollocare ma la lista delle correzioni indispensabili si assottiglia sempre più.

Arriviamo a una soluzione soddisfacente. Chiedo di generare una rappresentazione grafica dei cluster. Mi propone varie soluzioni fra cui un grafico a bolle interattivo apribile nel browser, salvato come file .html.

La rappresentazione è interattiva: passando con il mouse su ciascun rettangolo vengono rappresentati i tag che compaiono più frequentemente nei documenti di quel cluster. Per esempio su LOGO-Turtle appaiono LibreLogo, Logo, Bibliografia ragionata, Computer Science Education, Ellisse, Scratch ecc.

Un’ottima esperienza. L’agente non ha mai commesso errori palesi — che invece capitano con la consultazione normale. Tutti i problemi dipendevano dall’imperfezione delle richieste e dalla necessità di metterli a fuoco progressivamente. Insomma l’uomo deve lavorare un bel po’ affinché l’agente dia il meglio. E lo dà abbastanza. Da creare dipendenza…

Le angosce

E la dipendenza la crea. Claude Code ha avuto un grande successo, nonostante la declinazione tecnica, e Anthropic è dovuta ricorrere a varie forme di contingentamento dell’offerta per quagliare la domanda: stiamo usando così tanta AI che la potenza di calcolo disponibile non basta più (WSJ, 12 aprile).

Intanto il margine di accesso gratuito si assottiglia, si fa presto ad arrivare alla soglia: €15/mese più IVA, nel nostro caso. Il prossimo passo sarebbe €90/mese. Speriamo di non arrivarci ma la trappola è ben congegnata: una volta scoperto di non potere più andare avanti con il piano corrente, si sono già investite così tante energie che diventa difficile rinunciare.

In realtà questi introiti non bastano nemmeno lontanamente a coprire i costi immensi sostenuti dalle big tech per la produzione e lo sviluppo dell’AI offerta al pubblico. I ritorni generati da aziende che hanno integrato in qualche forma sistemi AI basati su LLM sono per il momento minimi. A livello globale, secondo l’indagine “State of AI” di McKinsey del 2025, il 78% delle aziende dichiara di utilizzare l’intelligenza artificiale in almeno una funzione, rispetto al 55% nel 2023, ma quelle che utilizzano l’AI hanno riscontrato in media risparmi sui costi inferiori al 10% e aumenti di fatturato inferiori al 5% (AI4Business, aprile 2025). Per ora non si registra quindi un aumento di produttività a livello aggregato.

Nel frattempo la necessità di moltiplicare le infrastrutture per sostenere uno sviluppo così travolgente sta generando problemi di amministrazione locale, perché questi centri da qualche parte devono pur stare. Anzi, se possibile, devono essere collocati in luoghi favorevoli nel contesto delle infrastrutture preesistenti. Già in una decina di stati americani stanno comparendo proposte di legge tese a limitare la proliferazione di nuovi data center (WSJ, 14 aprile) ma si stanno anche moltiplicando le manifestazioni di dissenso popolare (WSJ, 25 aprile).

È anche in atto una mutazione antropologica. Nel secolo scorso un contesto così volatile sarebbe parso insopportabile. Oggi tuffarsi in acque tempestose senza salvagente è normale.

Anthropic ha deciso di disattivare l'intero nostro account per una presunta violazione delle loro condizioni d'uso. Quale politica specifica abbiamo infranto non ne ho la più pallida idea: semplicemente abbiamo ricevuto una mail e stop, arrivederci Claude. Se vuoi fare ricorso contro la decisione, devi compilare un Google Form, per quanto ridicolo possa sembrare. 
Di colpo più di 60 persone si sono trovate senza uno strumento fondamentale per lavorare. Integrazioni, skill, storico delle conversazioni: tutto perso o, nel migliore dei casi, fermo per un tempo indefinito.
Enorme lezione per qualsiasi azienda software che dipenda da strumenti di IA in processi critici. Non bisogna mai mettere tutte le uova in un unico paniere.
Dal post di un imprenditore in X - 18 aprile

Poi il giorno dopo l’account è stato riattivato con la comunicazione che si era trattato di un falso positivo. È finita bene ma l’episodio è istruttivo. Quanto meno: salvare tutto, sempre, ossessivamente. E avere un piano B.

Stiamo godendo sì di inedite opportunità ma non bisogna dimenticare che queste sono sostenute dalla più grande scommessa di sempre. Mezzo secolo fa il settore high tech primeggiava già con IBM, per via della natura dei prodotti hardware e software, ma in un contesto di grande stabilità: le azioni IBM costituivano il fondamento di moltitudini di portafogli. Qui invece stiamo cavalcando un’esplosione, scientifica, tecnologica, finanziaria, geopolitica, in un contesto altamente asimmetrico, lontano da qualsiasi parvenza di stabilità.

Il conto potrebbe essere ben più salato del piano a €15/mese.


  1. È veramente facile attivare il Windows Subsystem Linux (WSL) in Windows 11. Ci sono vari metodi, il più semplice, che installa la distribuzione Ubuntu di default, consiste nell’aprire il terminale PowerShell o Prompt dei comandi e digitare il comando
    wsl --install
    Una volta installato, anche per lanciarlo ci sono vari modi. I più semplici sono: digitare direttamente Ubuntu nel menu Start di Windows oppure, una volta aperto PowerShell o Prompt dei comandi, digitare semplicemente wsl.
    fatto questo ci si ritrova in un terminale Ubuntu aperto sulla cartella di lavoro
    /home/andreas
    Questo fa parte del file system di Linux. Conviene lavorare qui con Claude Code perché è più veloce. Se si vuole accedere da qui a qualcosa nel file system Windows, per esempio al proprio spazio, allora il percorso è questo:
    /mnt/c/Users/andreas
    Se invece si vuole accedere al file system Linux da una qualsiasi applicazione Windows il percorso è
    \\wsl.localhost\Ubuntu\home\andreas
    Per avere info più dettagliate chiedere a un chatbot con prompt tipo:
    “Come attivare WSL (ad esempio Ubuntu) in Windows 11?”
    “Supponiamo di avere installato Ubuntu. Quali sono i modi per lanciarlo?”
    ↩︎
  2. Si tratta di una tecnica di machine learning che impiega due strumenti statistici: TF-IDF e K-means. Il primo (TF-IDF), sulla base dell’insieme delle parole presenti in tutti i documenti, costruisce uno spazio vettoriale dove ogni documento diventa un vettore le cui componenti sono le frequenze di ciascuna parola in quel documento. Successivamente, K-means individua i cluster che raggruppano semanticamente i vettori-documento.
    Per maggiori dettagli suggeriamo queste note di The Stanford Natural Language Processing Group: Introduction to Information Retrieval, in particolare Tf-idf weighting , Dot products e K-means.
    . ↩︎

Vengono pubblicati solo commenti che recano nome e cognome

Scopri di più da Andreas Formiconi

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere