
Come avevo anticipato nella puntata introduttiva di questa serie del far del mondo la classe, qui propongo una breve passeggiata nel museo degli “scandali della scienza”, dove sono documentati gli attacchi del disordine alla edificazione della torre delle scienze esatte.
Prima però vorrei ricordare come concetti quali il disordine, l’incertezza, l’ambiguità, la soggettività, concetti portatori di vaghezza e per questo sostanzialmente banditi dal ragionamento scientifico, non siano affatto scomparsi dal ragionamento generale sul mondo, ma siano invece stati oggetto di esplorazione profonda nella letteratura e nelle arti, per esempio mediante la ricerca sulla complessità delle percezioni e sull’incertezza dei destini degli uomini condotta dalla narrativa dell’ottocento.
Ci troviamo ora con una cultura spaccata in due, dove il mondo umanistico è quasi ridotto ad occuparsi degli avanzi del ricco pasto del mondo scientifico, che determina gli indirizzi e drena la maggior parte delle risorse.
Ebbene, proseguiamo quindi vedendo che alcuni di questi avanzi, che qui denoto genericamente con il termine “disordine”, non siano poi così accidentali e secondari, e come gli scienziati si siano resi conto, in varie e fondamentali circostanze, che quegli avanzi sono in realtà componenti fondamentali del mondo che vanno investigando.
Il disordine ha fatto la sua prima apparizione significativa da molto tempo, attorno alla metà del XIX secolo, agli inizi della rivoluzione industriale, nelle vesti del secondo principio della termodinamica. Quando ci si trova davanti a un fenomeno che si verifica senza apparenti eccezioni ma al quale non si è in grado di dare alcuna spiegazione, non resta che prendere atto della situazione e ricorrere alla carta del “principio”.
Così il secondo principio della termodinamica (Clausius, 1850) è nato per ospitare un’anomalia del concetto di energia. Fino al quel momento l’energia, quantità fisica che esprime la potenzialità di compiere un qualche tipo di lavoro, aveva carattere polimorfico, potendosi trasformare, nel rispetto del principio della sua conservazione, in varie forme: energia meccanica, elettrica o chimica. L’anomalia nasce quando si considera quell’ulteriore forma di energia che si chiama calore: qualsiasi macchina (in realtà anche organismo) che produce un lavoro non può fare a meno di disperdere parte dell’energia in calore. Il problema non è che non si conservi l’energia ma che la sua trasformazione in calore rappresenti una dispersione. infatti quella è una parte di energia che risulta buttata via e che non si può recuperare. Così, il sogno di un mondo assimilabile ad un orologio perfetto, pur mediante forme anche non meccaniche di energia, quali quella chimica o elettrica, si infrange tristemente su questa inevitabile dispersione.
Indubbiamente non deve essere stato facile ingoiare un boccone del genere, nel pieno dell’entusiasmo per la costruzione di un mondo regolato meccanicamente, ma lo status di principio consentì di relegare questa stranezza in un recinto ben delimitato.
Il disordine invece sferrò un secondo e più temibile attacco tramite il pensiero di Ludwig Boltzmann, che nel 1890 riconobbe esplicitamente nel disordine atomico la natura del II principio. Qui la reazione della scienza classica si materializzò con l’aspra ostilità manifestata dalla maggior parte dei colleghi di Boltzmann per le sue idee, sia per quanto riguarda l’ipotesi atomica della materia che per il concetto di irreversibilità, che da tali ragionamenti derivava.
Fra le varie ipotetiche cause del suo suicidio si annovera anche la sofferenza per l’incomprensione e l’ostilità dell’ambiente scientifico. Invece Boltzmann aveva visto giusto. Pochi anni dopo la sua morte, la sua “meccanica statistica” aveva già conquistato lo status di pilastro fondamentale della fisica moderna. Amaro destino di tanti grandi scienziati e artisti.
Ma anche in questo caso il disordine, nella forma di dispersione termica, è stato nuovamente ridimensionato a mera testimonianza di progresso tecnologico, di operosità industriale, di economia vitale: le macchine costruite dall’uomo quando funzionano si scaldano. Quindi case, casamenti, officine, fabbriche, cantieri, rossi infuocati dal grande lavoro. Lavoro da ritmare, gestire, organizzare con gerarchie capaci di non lasciare niente al caso.
Quindi il disordine quale testimone di operosità di un mondo comunque dominato dall’ordine. Disordine ridotto a testimonianza di un inevitabile prezzo da pagare alla natura per fabbricare cose, per fabbricare tecnologia, per fabbricare il mondo, il mondo dell’uomo.
Ed è a quel tempo che è rimasta la scuola. Perché la scuola non solo descrive in sostanza quel mondo ma si appoggia ad un paradigma che è di quel mondo. Paradigma che si traduce nell’iper-determinazione e nell’iper-quantificazione scolastica, voti, crediti, ore, programmi ridotti a liste di argomenti, testi ridotti a manuali di istruzioni, sapere ridotto a istruzioni per l’uso, valutazioni ridotte a ardite misurazioni dell’incerto, prevalenza dello “studiare tanto” rispetto allo “studiare bene”. La vita scolastica non lascia alcun spazio al disordine, all’incerto, alla complessità. Anzi, impiega un metodo che conduce alla connotazione negativa di questi concetti. In questo tutto il mondo della cosiddetta istruzione è rimasto fermo inchiodato al IX secolo.
Bene dicono coloro che descrivono il viaggio quotidiano che i nostri figli compiono per recarsi a scuola come un viaggio nel tempo. Ma il mondo non si ferma e neanche la sua immagine che va formandosi nella mente dell’uomo. Per descrivere questo percorso conviene rimanere ancora un po’ nell’ambito della fisica, non solo perché è qui che il disordine ha fatto le sue più clamorose irruzioni, ma perché la fisica è ancora ritenuta il fondamento sul quale le altre scienze poggiano saldamente per innalzare un solido edificio di conoscenza.
L’atomo di Rutherford (1911), che pareva il mattone fondamentale della materia, pochi anni dopo, visto da vicino si è rivelato composto di entità evanescenti e elusive, senza un’identità precisa, ora onde ora corpuscoli, soggette a leggi di natura statistica, definibili solamente attraverso complessi di interazioni. Il disordine si è quindi manifestato con imponenza per la seconda volta proprio laddove ci pareva di tenere i piedi sulla terraferma, rivelandoci invece di navigare in un guscio di noce e costretti a fare continuamente il punto con strumenti paurosamente imprecisi. Ci siamo ritrovati quindi il disordine impastato con la nostra più basilare idea dell’essere.
I fondamenti teorici di questa visione dominata dal caso sono oggi oggetto della meccanica quantistica. Una disciplina estremamente concreta per l’enorme messe di previsioni che ne derivano e che stanno alle base di un progresso tecnologico senza precedenti, ma altrettanto astratta e estranea al nostro senso comune che è fondamento essenziale della sopravvivenza di ciascuno di noi.
Così estranea da provocare sconcerto nei suoi stessi ideatori. Ecco cosa scrisse il padre del principio di indeterminazione, Werner Heisenberg, in proposito (Fisica e Filosofia, Il Saggiatore, 1961, p. 55):
Ricordo delle discussioni con Bohr che si prolungarono per molte ore fino a notte piena e che ci condussero quasi ad uno stato di disperazione; e quando al termine della discussione me ne andavo solo a fare una passeggiata nel parco vicino continuavo sempre a ripropormi il problema: è possibile che la natura sia così assurda come ci appariva negli esperimenti atomici?
Uno studente di fisica nel 1975 (credo anche oggi ma in questo momento non posso esserne completamente sicuro) avrebbe studiato la meccanica quantistica nella forma di un cumulo di formalismi somministrati in uno dei vari insegnamenti, ma senza alcuna riflessione sulla percezione della nostra posizione nel mondo e sulla rivoluzione culturale che tale visione inevitabilmente comportava.
Dalla fisica alla matematica, la regina delle “scienze esatte”. All’inizio del 900 il matematico Hadamard introdusse il concetto di problema matematico mal posto , ill-posed problem, problema “malato”. Ebbene, quando da giovane ricercatore, mi trovai ad arzigogolare su di un metodo di ricostruzione di immagini mediche, convinto di avere messo a punto un metodo di grande potenzialità rispetto a quelli disponibili negli apparecchi medicali, in quanto dotato di una sorta di “potenziatore” della nitidezza delle immagini, la sera della prova cruciale, posizionai tale potenziatore al massimo e feci partire il computer per lavorare tutta la notte, poiché il metodo richiedeva lunghi e complessi calcoli. La mattina, chiamati a raccolta i collaboratori e pensando di godermi le esclamazioni di stupore per la chiarezza delle immagini nella quale confidavo, scoprii con stupore che era successo un macello. Le immagini erano completamente degenerate, semplicemente irriconoscibili. Non solo non erano migliorate ma avevano perso qualsiasi struttura e parevano diventate fotografie dello spazio profondo, con gli astri disseminati completamente a caso. Il disordine aveva travolto anche un ignaro e marginale operatore della ricerca alle provincie dell’impero negli anni 80.
Questo clamoroso fallimento si rivelò essere il punto di partenza di un periodo di ricerca e di proficuo apprendimento che mi aprì gli occhi sul mondo dei problemi inversi e delle loro problematiche. Un mondo comparso all’inizio del secolo e del quale, nei miei studi, non v’era stata traccia, non solo come materia tecnica, che forse non si può sempre pretendere oggi, vista la vastità dello scibile, ma, e questo è l’aspetto grave, senza neanche la più pallida idea della visione del mondo che tali risultati inevitabilmente comportavano.
La mal posizione dei problemi inversi infatti concerne qualsiasi tecnologia che comporti l’elaborazione matematica di una qualche misura fisica; anche di una TAC per intendersi. Se non si aggiusta bene la macchina matematica che risolve il problema, il disordine si impadronisce del risultato. Soprattutto, questo fatto stabilisce un limite insuperabile, per ciascuna tecnica, oltre il quale i risultati non possono più migliorare.
Persino il grande orologio celeste porta il germe della pazzia. I calcoli basati sui dati dei satelliti Voyager rivelano che la maggior parte delle lune – la nostra pare essere un’eccezione – hanno sperimentato periodi di movimento caotico durati milioni di anni, vale a dire periodi durante i quali il movimento di tali corpi sembra seguire un andamento casuale e quindi imprevedibile. Un esempio ormai ben noto è quello di Iperione, piccola luna bitorzoluta di Saturno.
Sembra addirittura che questa grande quantità di movimento caotico delle lune orbitanti intorno ai pianeti renda finalmente ragione dell’altrimenti inspiegabile quantità di meteoriti che vagano per il sistema solare, e dei quali alcuni periodicamente cadono anche sulla terra. Quindi si verifica che l’esplicita ammissione di fasi nelle quali domina il disordine consente la spiegazione di fenomeni reali.
La comparsa del movimento caotico nei sistemi fisici, anche quelli relativamente semplici, come il sistema solare, è oggetto oggi di studio di una branca della fisica che si chiama dinamica non lineare e che ha preso le mosse dallo studio di Poincaré del problema dei tre corpi, intorno al 1880: anche tre soli corpi abbandonati alle semplici leggi di gravitazione Newtoniane portano il germe del disordine!
E se infine immaginiamo di trovare quieta certezza nella vastità del cosmo, ebbene, anche qui siamo fuori strada. Dalle osservazioni di Hubble in poi (1960) abbiamo perso anche ogni speranza di riconoscere un qualsiasi centro dell’universo. Non solo la nostra terra e il nostro sole non godono di alcuna forma di centralità, ma non siamo in grado di riconoscere alcun altro centro rispetto al quale riferirsi, in un modo qualsiasi. Ancora peggio, abbiamo perso anche la nozione di centralità delle leggi dell’universo che sono ormai anch’esse figlie di quella singolarità iniziale dalla quale, 10 o 20 miliardi di anni fa, con un’esplosione catastrofica prese le mosse questo nostro universo con queste sue leggi, nel quale organizzazione e disordine si alimentano e si contrastano allo stesso tempo, in un continuo avvicendarsi di genesi e decomposizione.
Nella nostra cultura permane invece ancora una visione immanente del mondo fisico che finisce con l’intonare l’atteggiamento verso il mondo in generale, alimentando un antropocentrismo residuo che vede l’uomo osservatore esterno di oggetti indipendenti, passivi. L’uomo che manipola, unisce, separa, compone, scompone e poi ricompone oggetti per costruire il mondo che gli serve. L’uomo che vede anche gli organismi e le organizzazioni sotto forma di oggetti, ignorandone la natura viva e le relazioni intercorrenti fra di essi e con esso medesimo.
È quindi necessario compiere uno sforzo per chiarire come quelle fondamenta fisiche che oltre un secolo fa iniziavamo a credere solide si siano invece dissolte, che non esiste niente di vagamente simile ad una “scienza esatta”, che il mondo non è una cosa fabbricata o da fabbricare, un mattone dietro l’altro, ma una cosa incerta e perigliosa da navigare, e che forse non potremo mai nemmeno conoscere, nel senso usuale, ma che possiamo solo imparare a navigare. Ed è proprio quel “conoscere” che è da rivedere, perché se perseveriamo nell’accumulare questo tipo di conoscenza finiremo col trovare solo disorientamento. Non possiamo andare avanti nella conoscenza se non rivediamo il modo di conoscere.
Se poi, abbandonando gli ormai non del tutto sicuri territori delle scienze matematiche e fisiche, ci inerpichiamo su per la scala dell’organizzazione, scopriamo il disordine presentarsi ad ogni successivo gradino.
Il dogma centrale della genetica (Francis Crick, 1958), stabiliva come gli aminoacidi che costituiscono le proteine fossero codificati nella sequenza di basi del DNA, dando luogo ad un processo di costruzione strettamente di “lettura” del DNA, senza possibilità che dell’informazione potesse refluire influenzando il DNA medesimo.
L’idea che i fenotipi, cioè le caratteristiche osservabili di un organismo, fossero “scritti” da qualche parte si attagliava troppo alla concezione dominante di una conoscenza trasmissibile testualmente per non suonare molto gradevole. Infatti, appena la cosa si è rivelata tecnicamente possibile, sostanzialmente grazie alla potenza di calcolo dei computer digitali, nel 2001 si è concluso il progetto di decodifica del genoma umano, dopo dieci anni di lavoro e con un costo di tre miliardi di dollari.
Indubbiamente un grande risultato con grandi potenzialità per la comprensione dei meccanismi di molte patologie importanti e per la progettazione di nuovi farmaci. Tuttavia questo risultato si è anche rivelato essere una grande delusione, un altro drastico ridimensionamento della nostra possibilità di comprendere il mondo; o quantomeno un drastico rallentamento.
Infatti, il meccanismo con il quale l’organismo viene determinato attraverso il codice genetico si è rivelato estremamente più complesso di quello che si pensava e, dopo avere imparato a leggere il genoma umano ci rendiamo conto che forse il nocciolo e la parte preponderante della questione sta altrove.
Uno dei risultati più eclatanti che ha scatenato una quantità di riflessioni, anche al di fuori dell’ambito strettamente scientifico, consiste nella sostanziale uguaglianza fra il genoma dello scimpanzé e quello umano: differiscono ma per una quantità inferiore al 2%!
Inevitabile la domanda che si sono posti gli autori dell’articolo Initial sequence of the chimpanzee genome and comparison with the human genome, apparso sulla rivista Nature (Nature 437, 69-87, 2005):
The hardest such question is: what makes us human?
Oggi infatti si indaga con grande difficoltà il modo con il quale la vertiginosamente intricata rete di cicli biochimici della cellula mutui il codice genetico nei fenotipi degli organismi.
La decodifica del genoma umano, trionfalmente proclamata dai media, probabilmente non è che un minuscolo gradino iniziale al partire dal quale si sviluppa una rete di cicli biochimici che, come tutte le reti che partecipano ai processi vitali, non potrà probabilmente essere affrontata con il metodo della riduzione in parti da studiare separatamente.
La percezione del ruolo del disordine ha ormai raggiunto anche l’ambito dell’economia e della produzione industriale. Il fenomeno più eclatante è certamente costituito dalla clamorosa emergenza del sistema operativo Linux, divenuto ormai un componente impiegato da aziende e industrie di high tech di ogni tipo – sulla macchina che sto usando per scrivere gira un sistema Linux – ma sviluppatosi spontaneamente per opera di una moltitudine di programmatori volontari di ogni sorta, hobbisti e professionisti, sparpagliati nel mondo e senza alcun tipo di coordinamento.
Un fenomeno che ha rivoluzionato il modo di lavorare delle aziende, dando vita ad una profonda rivisitazione del concetto di proprietà intellettuale, un concetto strategico per qualsiasi azienda operante in un mercato libero. Le aziende di high tech ma non solo, oggi stanno imparando a integrare i processi governati in maniera tradizionale con fasi nelle quali prevalgono ambiguità e incertezza. Una progressione che coinvolge aspetti tecnologici, gestionali e macroeconomici, ben sintetizzati con la teoria della Wikinomics.
Il pensiero della Wikinomics introduce il concetto di ecosistema nel mondo economico che, a sua volta, implica l’idea di cooperazione oltre a quella di competizione. Infatti, la teoria della Wikinomics si sintetizza in quattro inediti principi:
- openness
- sharing
- peering
- acting globally
Quattro principi che potevano parere tanto estranei al pensiero di un manager quanto poteva essere estranea l’idea di un problema matematico malato (ill-posed problem) nella matematica dell’inizio 800.
Questi quattro principi manifestano la presa d’atto che nel mondo economico esistono aspetti che hanno la natura di “rete” e, date le caratteristiche delle reti, essi implicano l’accettazione di un ruolo importante del disordine.
Ma, giunti a questo punto, dove siamo finiti rispetto al tema centrale del Far del mondo la classe? Malgrado si siano toccati molti aspetti diversi ed anche in modo molto superficiale, è forse inevitabile la sensazione che si sia perso il filo finendo fuori tema.
Nel prossimo post tenterò di chiudere il cerchio. Qui mi accontento di ribadire che l’intento di questo piccolo viaggio è stato di mostrare quanto la visione del mondo che, in un certo senso, ci potremmo permettere sia ormai lontana da quella che viene pervicacemente tramandata.
Secondo me l’attaccamento a teorie “provate” e la riluttanza nell’accettare idee innovative, siano queste in ambito scientifico, economico o culturale, sono propriamente l’indice (e per alcuni la presa di coscienza) del naufragare dell’uomo (non che abbia mai navigato eh, cambia solo il punto di vista).
L’uomo per sua stessa natura deve avere un qualche punto fermo, un punto di riferimento.
Può essere il credere di essere al centro dell’universo, il credere di aver capito come funzionano i processi biochimici che regolano la vita o il credere di conoscere l’unico modello economico possibile.
Questi punti, anche se errati col senno del poi, contestualizzati avevano un proprio senso e hanno costituito la base per i progressi successivi.
Ogni progresso viene comunque fatto a piccoli passi perché, per fortuna, l’uomo è anche ingordo di conoscienza.
Quei pochi che riescono a vedere oltre, a rompere quella forma di attaccamento verso la sicurezza danno la spinta per andare avanti.
Non importa se non vengono compresi subito (anche con esiti tragici, come scritto nel post), ma riescono comunque nel loro intento mettendo la “pulce nell’orecchio” alla comunità che li circonda.
Questi erano i miei 5 cent in difesa della natura umana 😀
uno dei più bei post del mondo!