Quel disordine che non c’è che genera l’incertezza

Nel 1906, oltre un secolo fa, a proposito della teoria dei giochi, Angelo Andreini, matematico e geografo, scriveva 1: “La certezza appartiene solo alle cognizioni matematiche. Potrebbe acquistarsi anche per tutti gli altri fatti quando fossero esattamente ed interamente conosciute le cause che li determinano. La possibilità di potere apprezzare più o meno queste cause fa nascere in noi convincimenti più o meno fondati; gli effetti di cause ignote si attribuiscono al caso. Ma il caso non esiste, tutto è sottoposto a leggi; solo la nostra ignoranza ci porta ad invocare l’intervento di questo ente immaginario. Tuttavia questo caso non lo supponiamo totalmente cieco, anzi per molti avvenimenti riteniamo che operi secondo ragionevoli tendenze; tale convincimento ci fa acquistare un’opinione sul grado di possibilità relativa ai diversi avvenimenti; questi differenti gradi sono distinti colle espressioni usuali: impossibile, improbabile, dubbioso, probabile, certo. A tale possibilità attribuiamo intanto uno dei caratteri propri alle grandezze, ma per poterla assoggettare al calcolo è necessario saperla misurare. …”.
È questo il nocciolo del problema che, se risolto, assicurerebbe il determinismo e che ha impegnato le discussioni dei fisici del periodo. Quello degli anni in cui prese corpo la meccanica quantistica per dare espressione coerente ad evidenze sperimentali contraddittorie rilevate alle scale atomiche e subatomiche. Proprio la teoria dei quanti, infatti, diede i riferimenti tecnici necessari per approfondire la materia nei decenni immediatamente seguenti l’inizio del ‘900, in particolare tra la fine degli anni ’20 e i primi anni ’30, quando gli assertori dell’indeterminismo ancora non avevano chiara la distinzione tra indeterminazione, dovuta alla difficoltà di misurare e definire compiutamente lo stato dei sistemi, e la sua ricaduta sulla causalità. Un’ambiguità che portò Max Born, in un articolo del ‘27, a dire che “L’impossibilità di misurare esattamente tutti i dati di uno stato impedisce la predeterminazione dello svolgimento successivo. Di conseguenza il principio di causalità perde, nella sua comune formulazione, ogni senso”, anche se dopo si corresse 2.
Perché, come noto, la teoria venne poi estensivamente verificata sperimentalmente e alcuni suoi aspetti lasciarono spazio a differenti interpretazioni. Questo a partire dalla prima, la più diffusa e famosa, detta di Copenaghen, formulata organicamente da Wolfang Pauli negli anni ‘50, sulla base degli iniziali lavori di Niels Bohr e Werner Heisenberg intorno al ‘27, secondo cui la limitata conoscenza dello stato fisico di un sistema è una proprietà intrinseca della natura e non un limite degli strumenti utilizzati nelle indagini sperimentali o, in ultima analisi, dei nostri stessi sensi. Una posizione variamente contestata dal mondo scientifico, ancora oggi oggetto di dibattito, cui sono seguite numerose altre spiegazioni.
Una delle maggiori resistenze di tanti fisici del periodo riguardò, infatti, la necessità di dover abbandonare la descrizione dello stato del sistema in termini di tutte le sue variabili contemporaneamente note, per cui alcuni di loro ipotizzarono l’esistenza di variabili nascoste e altri ritennero che le rappresentazioni fossero in ogni modo parziali. Per esempio nel ’45 Albert Einstein disse 3 Io propendo per l’opinione che la funzione d’onda non descrive cosa è reale, ma solo una massima conoscenza empiricamente accessibile a noi per quanto riguarda ciò che realmente esiste … la meccanica quantistica fornisce una descrizione incompleta dello stato reale …”. Ancor più drasticamente Niels Bohr sostenne 4 che “Non esiste alcun mondo quantistico. C’è solo una astratta descrizione fisica. È sbagliato pensare che il compito della fisica sia di scoprire come è la natura. La fisica riguarda quello che noi possiamo dire a riguardo della natura…”.
In ogni caso, la risposta alla domanda su quale potesse essere la realtà si pensava, e si pensa, dovesse essere rinviata e potesse essere fornita da una teoria del tutto, ovvero ad una teoria capace di descrivere coerentemente tutti i fenomeni osservati in natura, comprendente anche la forza di gravità e non solo le interazioni nucleari e subnucleari. C’è però da dire che, comunque, queste perplessità e resistenze non hanno minimamente inficiato il grande potere predittivo dimostrato dalla meccanica quantistica, nei tanti esperimenti progressivamente condotti nel tempo, portando il mondo scientifico ad accettare i suoi postulati e i suoi principi, anche se la questione di quale sia la realtà al di fuori degli esperimenti resta ancora aperta.

UN NUOVO MECCANICISMO?
Con il passare dei decenni molta acqua è passata sotto i ponti e se, da una parte, Murray Gell-Mann, fisico statunitense, anche lui Nobel per la fisica nel ’69, come i precedenti Born, Pauli, Bohr, Heisenberg e vari altri antesignani della materia sopra non citati, a partire dal suo iniziatore Max Planck, ancora affermava 5, nel ’96, “Se non siamo in grado di fare previsioni sul comportamento di un nucleo atomico, immaginiamo quanto più fondamentalmente imprevedibile sia il comportamento dell’intero universo”, dall’altra, la teoria dei giochi, premiata nel ’94, sempre col Nobel, ma per l’economia, a John C. Harsanyi, John F. Nash e Reinhard Selten, consente ora di governare tutta una serie di fenomeni altrimenti incontrollabili. E tre anni dopo, nel ’97, di nuovo è stato assegnato un Nobel, ancora per l’economia, a Robert C.Merton e a Myron S. Scholes per l’elaborazione di una teoria della finanza capace di valutare le opzioni, rendendo possibile un livello più efficiente di gestione del rischio.
In tutte queste situazioni e in numerose altre, ciò che rileva è che si è trattato di sviluppi molto sofisticati della teoria delle decisioni in condizioni di incertezza e di rischio, anche se nessuno pensa, ovviamente, che tali avanzamenti possano dare nuova vita a una visione meccanicistica delle cose. A un ritorno di fiamma del determinismo di Cartesio, fatto proprio da Laplace nei primi anni del XIX secolo 6, secondo cui l’universo era un grande orologio, per Newton, da ricaricare di tanto in tanto da parte di Dio, o in moto perpetuo, per Leibniz, comunque sempre caratterizzato da immutabile precisione e massima prevedibilità.
Contro di esso si erano schierati nel tempo, come si sa, molti pensatori, sin dall’antichità, a partire da Democrito, fino a quelli idealistici dell’età romantica che, confutando gli assunti di illuminismo e positivismo, individuavano il principio primo nello spirito, cioè nell’idea o nella coscienza, e non nella materia. Questo ancor prima che Heisenberg dicesse 7, nel ’27, “… Se conosciamo in modo preciso il presente, possiamo prevedere il futuro, non è falsa la conclusione, bensì la premessa. In linea di principio noi non possiamo conoscere il presente in tutti i suoi dettagli … mediante le meccanica quantistica viene stabilita definitivamente la non validità del principio di causalità“. E ancor prima che il biologo Jacques Monod, anche lui Nobel nel ’65, estendesse questa conclusione all’indeterminismo nelle mutazioni genetiche nel suo celebre saggio “Il caso e la necessità”.
Conclusioni che sono ora uscite dal campo delle speculazioni strettamente scientifiche, pervadendo quello concreto, perché di fatto oggi è opinione diffusa che la scienza, ma soprattutto la tecnica, stiano rendendo la nostra società sempre più complessa, caotica e incerta, a un punto tale che l’epoca in cui viviamo sarebbe ormai del tutto dominata dall’incertezza. In quanto la sfida che l’umanità sta affrontando è quella di dover e saper gestire una società dove operano attori sempre più numerosi: le persone, i gruppi sociali, le imprese, gli strumenti tecnici e organizzativi, ecc., gli stessi valori che cambiano. Dove i ruoli e le attività mutano a seguito delle enormi richieste degli individui poste dalla crescita del loro sapere e della loro consapevolezza. Dove, quindi, insieme alle persone, cresce anche la loro creatività, così che l’umanità, pur essendo più numerosa, è sempre meno massificata.
Tutto ciò, ovviamente, è contrario all’ordine, quello che le scienze naturali e umane hanno sempre cercato di immaginare e realizzare concettualmente. Dato che esso è sconvolto dal disordine, dall’incertezza, dalle strutture caotiche, da eventi singolari, che vanno oltre la portata dei fenomeni catalogati e assumono un ruolo determinante, dai progressi scientifici, che cambiano la concezione dell’universo (in termini di spazio, tempo, causalità), dall’evoluzione degli ecosistemi, delle strutture sociali, ecc.
In tal modo viene sovvertito con incredibile velocità quanto si era prima pensato e fatto, poiché la crescente complessità obbliga ad abbandonare i vecchi pregiudizi e a riadattare i vincoli che hanno sin qui regolato lo sviluppo. Così liberando energie positive, ma anche quelle negative che alimentano l’incertezza delle scelte e lo smarrimento circa il nostro futuro e quello dell’ambiente. Basti pensare al sovvertimento, alla base stessa del nostro vivere, dell’idea del tempo, cui si è fatto cenno nei precedenti editoriali, che non è l’entità puramente astratta che si crede, perché come è stato ampiamente dimostrato, a partire da Einstein, può essere rallentato o accelerato, e unito allo spazio genera il campo gravitazionale, che è una realtà ben concreta.

IL MONDO È SEMPRE STATO COMPLESSO
Uno sconcerto dovuto alla complessità crescente delle strutture immateriali e materiali che l’uomo è ora portato a realizzare, sulla spinta della crescita forsennata del suo sapere tecnico, il quale sta registrando e registrerà raddoppi in manciate di anni e poi di mesi. Una discontinuità che gli ha impedito di mantenerle semplici, come ha sempre cercato di fare, per poterle gestire facilmente. Ma è proprio questa volontà di semplificarle, ragione da una parte del successo, che gli ha fatto ignorare l’enormità degli aspetti che interagivano tra loro e alimentare per tutto l’800 quel determinismo ingenuo legato all’ipotesi che il mondo microscopico fosse più elementare e semplice di quello macroscopico. In tal modo perpetuando oltre misura l’ignoranza e con essa generando la corrispondente incertezza.
Al contrario, per parte sua, il mondo della natura è sempre stato estremamente complesso, anche se solo ora iniziamo ad esserne consapevoli. Così, in passato, a partire dall’età dei miti, solo una piccolissima quota degli eventi naturali o antropici, fortemente cresciuta nel tempo, ma ancora assai modesta, veniva inquadrata in schemi razionali. Il resto era lasciato al fato, o alla divinità, o a interpretazioni arbitrarie, e c’era, inoltre, e c’è tuttora, una tendenza ideologica a forzare gli eventi in schemi rigidi di causa a effetto, contraddicendo sovente le leggi stesse della natura.
Ciò in quanto nella realtà, come detto, i sistemi, sia fisici che biologici, sono caratterizzati da un numero molto elevato di variabili causali, che per semplicità non sono state individuate o si è omesso di considerare, perché apparentemente secondarie o ininfluenti, la cui azione in molti casi è da valutarsi, tra l’altro, in termini probabilistici e il cui effetto è quasi sempre la risultante di più cause, mentre la tipologia e il modo con cui queste cause si connettono o sconnettono determina il risultato. Trascurarle e forzare gli eventi naturali nei paradigmi semplificati che teorizza l’uomo ha generato e genera l’incertezza che ci affligge, la quale tuttavia non è un male incurabile.
È stato Henri Poincaré il primo a diagnosticarlo e proporne la cura, poco più di un secolo fa, riconoscendo che i fenomeni naturali sono caratterizzati dalla grande complessità che consegue all’interazione tra una molteplicità di attori non in sequenze lineari di cause ed effetti. In tal modo ha reso la scienza e la tecnica più aderenti alla natura e ancor oggi molti degli esperti sostengono che il metodo con cui affrontare il problema dell’imprevedibilità nell’evoluzione di un sistema complesso sia l’approccio matematico da Lui concepito, perché è caratterizzato dal rigore galileiano che richiede la scienza, diversamente da quelli più settoriali e non solo matematici, basati su assunti da verificare, di Ilya Prigogine, Gregory Bateson, Stephen Jay Gould, Edgar Morin e altri, anche se sul piano euristico risultano assai utili.
Una diagnosi provvidenziale, purtroppo tardivamente compresa nella sua importanza, visto che nei primi decenni del ‘900 la metafora dell’orologio meccanico per spiegare il comportamento dell’universo ancora regnava sovrana, invadendo anche il campo della vita, ancora vista come semplice movimento, per cui un automa poteva essere considerato vivo.
Convinto determinista, Poincaré aveva compreso che nell’evoluzione dinamica dei sistemi complessi si potevano creare situazioni in cui una minima variazione delle condizioni iniziali portava a divergenze così grandi nel moto da non consentire più di prevedere quale ne poteva essere l’evoluzione nel tempo. In tal modo pose le premesse per dar vita al concetto di “caos deterministico”: un sistema che, pur governato da leggi note, può assumere un comportamento del tutto imprevedibile, senza che venga alterato lo schema deterministico. Questo perché il metodo si basa sull’applicazione delle regole rigorosamente deterministiche delle leggi del moto, limitandosi a determinare alcune caratteristiche del caos, un ordine nascosto nel disordine. In sintesi, partendo dalla sua teoria ha dimostrato ed è stato possibile dimostrare che esistono fenomeni deterministici, per i quali è nota la legge che ne descrive l’evoluzione temporale, che tuttavia mostrano un comportamento irregolare e imprevedibile, se li si osserva per un certo tempo.

IL CAOS DETERMINISTICO
In effetti, tutti i fenomeni fisici, anche se in diversa misura, sono caratterizzati universalmente dalla non linearità che imprime loro comportamenti differenti e vari, rispetto a quelli lineari. Dato che in questi primi si osservano improvvisi passaggi da dinamiche regolari a regimi irregolari, nonché una critica dipendenza da variazioni, anche piccole, delle condizioni iniziali, che rende tali manifestazioni totalmente imprevedibili. Le componenti di non linearità possono essere molto ridotte e trascurabili, come ad esempio nel moto dei pianeti nel cielo intorno al Sole, dove la loro posizione è prevedibile nei secoli. Ma non nei milioni di anni, dicono gli astronomi, alcuni dei quali hanno calcolato che nel lungo periodo pure la stabilità stessa del sistema solare è essenzialmente impredicibile, perché anch’esso è un sistema caotico e non quasi periodico, come valutato inizialmente da Laplace e Lagrange.
In altri casi le componenti non lineari sono molto importanti. Da quelli più semplici, come il rotolamento di un dado, ai più difficili, per la grande molteplicità delle varabili in gioco, come la caduta di una meteorite, le devastazioni che genera una scossa tellurica, il deflusso di un fluido, la dinamica dell’atmosfera. Quest’ultima è talmente intricata che, nonostante i continui sforzi e progressi, le previsioni del tempo non possono che essere espresse, per ora, in termini probabilistici e la probabilità che si rivelino errate è tanto maggiore quanto più lontano è il giorno a cui esse si riferiscono.
Il numero delle situazioni, al momento imprevedibili, cui l’uomo può applicare questo metodo è enorme e, come detto, abbraccia più o meno tutti i fenomeni complessi. Nascono ora applicazioni che coinvolgono non solo i modelli fisici più disparati, ma entrano anche nella economia – dai flussi delle popolazioni a quelli finanziari -, nella biologia, nella medicina – dal cuore alle reti neurali – e in tanti altri settori. Gli esseri viventi e noi stessi, come ben si sa, sono sistemi fortemente complessi, mossi da logiche altamente non lineari, e per cercare di comprenderne l’evoluzione con la massima oggettività le nuove cognizioni prodotte in questi ultimi decenni dagli studi sulla dinamica caotica e quelle che verranno sono e saranno indubbiamente molto utili.
Lo stesso battito cardiaco che ci tiene in vita, le cui caratteristiche sono, come ben noto, poco prevedibili, anche se può sorprendere, vista la semplice funzione di pompa che apparentemente svolge il cuore, ora può essere studiato con gli indici numerici che caratterizzano il “caos deterministico”, ovvero i sistemi dinamici non lineari. Tra di essi il “tempo di Lyapunov”, che definisce il limite al di là del quale la conoscenza delle condizioni iniziali del sistema diventa ininfluente. È possibile spostare questo limite temporale, ma per moltiplicare per 10 il tempo per cui l’evoluzione del sistema rimanga prevedibile, a partire dalle sue condizioni iniziali, occorre aumentare la precisione nella definizione di queste condizioni di un fattore uguale a e10, ovvero di circa 1000 volte.
Altro parametro è l’esponente di Hurst, che stabilisce la memoria del sistema non lineare considerato distinguendolo in persistente, anti persistente o totalmente random. Il battito cardiaco e tanti altri fenomeni periodici sono generati da sistemi dinamici altamente stocastici provvisti di memoria. In essi, ogni evento conserva la memoria degli eventi passati. Gli effetti di tali eventi continuano a farsi sentire, anche se in modo sempre più smorzato, sulle vicende future, pure se lontane nel tempo, e teoricamente all’infinito. Di qui l’importanza del parametro, unitamente a un terzo indice, che approfondisce l’analisi, che è l’entropia di Kolmogorov, la quale consente di determinare il livello deterministico nel caos collegato al tempo medio di predicibilità, ovvero al tempo di Lyapunov.
La nozione di “caos deterministico” ha introdotto un paradigma nuovo fra i modelli scientifici, mostrando che nel caos molti fenomeni aleatori sono più prevedibili di quanto si potesse pensare e che molte informazioni apparentemente aleatorie, in passato considerate di scarso o nullo interesse, possono essere a tal fine importanti. In questo senso la teoria del caos ha rappresentato una frattura epistemologica, avendo distinto principi del pensiero fisico, quali determinismo e predittività, visti come inscindibili nell’ambito della meccanica classica. Non solo, l’opera di Poincaré ha dato avvio alla nascita di una nuova branca della fisica, la scienza del caos, cui si è affiancata quella della geometria frattale, che tanto deve alla geometria combinatoria di cui Angelo Andreini è stato uno dei primi grandi studiosi 8.

CAUSALITÀ O CASUALITÀ
L’insieme degli studi più recenti porta a dire, come sostiene il matematico Ian Stewart, che il caos è casualità apparente con una causa puramente deterministica, un comportamento sregolato, governato per intero da regole, che si verifica nella zona di penombra tra regolarità e casualità 9. In tale contesto l’indeterminazione di Heisenberg viene considerata sempre di più tale solo nello schematismo dogmatico che impone descrizioni meccanicistiche, non nel descrivere il mondo delle particelle subatomiche e nel costruire le grandi macchine acceleratrici. D’altra parte, c’è da dire che l’impredicibilità legata alla complessità non impedisce, comunque, di posare con estrema precisione i satelliti artificiali e di esplorare il sistema solare, o di gestire in laboratori e opifici motori elettrici, macchine utensili ed altro in regime transitorio.
Ciò, come sopra accennato, anche nel corpo umano, dove fenomeni quale la fibrillazione cardiaca sono gestiti senza danni e con alta efficienza, mentre lo stesso tipo di analisi consente di interpretare e di intervenire, in genere, sul comportamento individuale, con messaggi elettrici o chimici, oppure informatici, nel caso dei sistemi sociali, di cittadini, consumatori e imprese. Ne è un esempio il processamento dei big data, il cui uso distorto, unitamente a quello delle fake news, desta crescente preoccupazione.
Per quanto detto, lo sforzo di sociologi ed economisti di applicare, per analogia, il metodo del “caos deterministico”, alle situazioni di complessità, disordine, non linearità, incertezza, che caratterizzano i sistemi sociali, i rapporti uomo-ambiente, uomo-macchina ed altro, sono altamente meritori, perché consentono di cominciare a comprendere fenomeni e comportamenti altrimenti inesplicabili. Le conoscenze sui fenomeni aleatori, specie di quelli che possono generare grandi disastri, ovvero che stravolgono improvvisamente il contesto precedente, come l’approssimarsi di uragani, le eruzioni vulcaniche, i cedimenti strutturali di manufatti, magari conseguenti a terremoti, ma anche la meno catastrofica, comunque altamente drammatica, competizione tecnologica, sui mercati, finanziaria, ecc., sono dunque molto importanti.
Perché ci permettono di fare previsioni, in passato inconcepibili, nello stesso momento in cui si fa strada l’idea che i sistemi sociali e le organizzazioni, si comportano come individui e specie governati dall’evoluzione secondo regole simili a quelle evidenziate dagli studi di Darwin. Dunque da cause genetiche e ambientali. E queste, come si sa, condizionano lo sviluppo iniziale, nel quale, però, il processo di individuazione prosegue per l’uomo anche dopo la nascita. In quanto nell’arco della sua storia l’uomo ha mostrato di aver costruito molte delle proprie determinazioni biologiche e la totalità di quelle culturali, così liberandosi dallo stretto determinismo genetico. È questa risorsa, quella del sapere, che sta facendo uscire noi e i nostri sistemi dall’evoluzione naturale, alimentando il contrasto tra catastrofisti e negazionisti e facendo dire a Martin Heidegger la celebre frase “La tecnologia ha sradicato l’uomo dalla natura e non vi è nulla che possa porvi rimedio, nemmeno la scienza, perché essa non pensa opera come una macchina”.
Oggi siamo all’inizio di tale processo, le cui conseguenze sono comunque già enormi. E forse anche di tale confronto, che deriva dalla presa di coscienza di essere gli attori del cambiamento, di noi come singoli individui, come società e come natura. Un cambiamento che stiamo orientando e accentuando in una direzione e con una velocità inquietanti, visto che non sappiamo quali saranno nel lungo periodo, mentre vorremmo poterle conoscere. Di qui l’incertezza, che continua apparentemente a crescere, dato che i processi innovativi alla base dell’evoluzione che stiamo accelerando sono sempre più ricercati e generati dallo sviluppo di tecniche e organizzazioni. Così, il cambiamento dell’uomo e della società non è più quello scandito dall’evoluzione naturale, ma viene dettato dagli stessi sistemi che evolvono, per loro volontà o per rimanere al passo e non essere sopraffatti dell’evoluzione di quelli che con loro competono.
Di fatto, la crescita esponenziale del sapere e dei suoi apparati di trasmissione e stoccaggio, sempre più miniaturizzati, ci permette ora di generare, memorizzare e diffondere, in modo praticamente immateriale, tutto quanto ci serve e di ricostruire fisicamente ciò che vogliamo, se ne abbiamo bisogno, in tempi ben diversi da quelli che impiega la natura. In quanto essa memorizza l’evoluzione passata nel suo DNA, traducendola quindi in molecole, organi, funzioni, pertanto molto lentamente. Al contrario, la nostra è un’evoluzione assai più rapida, efficace, adattiva e, per di più, non aleatoria. E la ridotta aleatorietà consente agli innovatori di operare in condizioni di maggiore certezza rispetto al passato e, quindi, con maggior successo, ma chi non sa subisce il cambiamento e vive nell’incertezza.

SAPERE E INCERTEZZA
Perché non basta sapere che esistono i problemi, occorre trovare soluzioni tecnicamente ed economicamente valide per risolverli e che siano socialmente accettabili. Dato che i rischi e l’incertezza vanno combattuti conoscendoli e ideando strumenti per controllarli. Non si possono ignorare come se non ci fossero. E, d’altra parte, ciò è impossibile, visto che nascono dallo stesso contesto fisico e culturale che uomini e imprese via via costruiscono, nell’accezione più ampia di sistema socio-economico, giuridico-istituzionale, di riferimento etico e di pensiero, dove si vive e si lavora, da cui scaturisce anche la forza generativa della complessità. Quella che risiede nelle interazioni tra esperienze, idee, culture diverse, che sono un moltiplicatore e un acceleratore dell’evoluzione culturale, la quale dà però anche la possibilità di costruire gli strumenti richiesti per rendere predicibile l’evoluzione dei nuovi sistemi, sempre più intersecati e interdipendenti che caratterizzano questo nostro tempo.
Pertanto, tornando a quanto si è detto inizialmente, forse non è del tutto vero ciò che pensa la gente, ovvero che l’epoca in cui viviamo sarebbe dominata dall’incertezza. Visto che molte analisi mostrano che l’incremento accelerato delle conoscenze porta con sé anche il progresso nella creazione dei mezzi che applicano le tecniche di governo dei fenomeni aleatori e dicono che, in tal modo, le incertezze e i rischi si stanno riducendo. Dunque, diversamente da quel che comunemente si crede, si può dire, anche se appare ai più paradossale, che viviamo in un’epoca di crescente certezza.
Di questo, alla pari di Poincaré, era ben convinto anche Albert Einstein, pure lui determinista. Molti ricorderanno la sua famosa frase “Dio non gioca a dadi con l’universo10 con la quale si schierò a favore della necessità nell’antico dilemma che la contrappone al caso. E ciò, nonostante le evidenze mostrate dalla meccanica quantistica e l’incertezza che inquietava il mondo del suo tempo, come ora del nostro. Dato che sapeva che questa incertezza è figlia dei nostri limiti, dell’ignoranza che abbiamo delle leggi che segue il creato, in grandissima parte ancora ignote. Un’ignoranza che ci rende pressoché ciechi, afflitti da una cecità che ci fa vedere il mondo come un insieme di cose, mentre è un insieme di accadimenti potenzialmente prevedibili.
Dato che anche le cose che più sembrano tali non sono che lunghi eventi di aggregazione di forme che non permangono nel tempo. Come una pietra che, secondo quanto ci insegna la chimica, la fisica, la mineralogia, ed altro, è in realtà un complesso vibrare di campi, un interagire momentaneo di forze, un processo che si mantiene simile a se stesso in un equilibrio complesso per un tempo che ci supera. E ciò ci dà l’illusione della sua solidità e permanenza, mentre questa ha un suo termine calcolabile, se si conoscono le condizioni iniziali e le successive interazioni con l’esterno del sistema che la caratterizza.
Ma se la natura è deterministica l’uomo che ne fa parte può essere libero? Per Einstein il “se” non ha valore ipotetico, visto che sottintende una realtà, e se è così la risposta alla domanda ne è inestricabilmente condizionata. Perché la natura non può essere ad un tempo deterministica e indeterministica. Se sono le leggi fisiche a dettarne i comportamenti, ivi compresi quelli umani, le scelte individuali non possono essere il risultato di processi casuali. Un divieto che molti osservatori considerano sempre più reale ed evidente e che ricade sulla questione del libero arbitrio, dando ragione agli assiomi più antichi della cultura classica.
Sin da quelli di Platone, per il quale la libertà apparente dell’uomo di poter scegliere da sé gli scopi del proprio pensare e agire, perseguiti tramite la volontà, si limita in realtà solo alla libertà di conoscere, di accumulare le conoscenze necessarie per essere consapevoli nel momento in cui si assumono le decisioni. Così da comprendere ciò che è “necessario”, ovvero le leggi che sono la ragion d’essere del mondo, in modo da potersi conformare e armonizzare con esse, cioè con la “necessità”. Un pensiero assai moderno perché, come si è sempre cercato di fare, allora con aruspici e oracoli, oggi con l’oggettività dei metodi scientifici, ci insegna a ricercare la conoscenza del domani, per adeguarvisi come possibili co-protagonisti, e di non subirlo come sudditi ignoranti.
Dunque, parafrasando quanto dice Immanuel Kant, libertà e necessità, termini apparentemente inconciliabili, non sono in contraddizione, quando l’uomo volontariamente obbedisce alle leggi che gli indica la coscienza del suo sapere. E, altrettanto, quando la libertà diventa la capacità di intendere da sé i motivi del proprio agire, come dice l’antroposofo Rudolf Steiner, per il quale la libertà “non è per nulla un ideale astratto, bensì una forza dirigente che risiede nell’essere umano11.
Comunque sia, per quanto detto in questo e nei precedenti editoriali pubblicati nei mesi scorsi, ma anche negli anni passati, è il sapere che fa la differenza, specie quello che aiuta a rendere predicibile il futuro, unico vero antidoto capace di neutralizzare il veleno dell’incertezza.

…………………………

  • Angelo Andreini (1857-1935), matematico e geografo, antesignano degli studi di geometria combinatoria, “I giuochi d’azzardo sotto l’aspetto matematico e morale” (Syllabus delle lezioni tenute all’Università Popolare di Firenze – Prato, Ed. Martini – 1906).
  • Renato Pettoello, “Causalità e realtà nel dibattito sulla meccanica quantistica negli anni 30 del novecento” (Rivista di storia della filosofia – 2014 pp. 83-126).
  • Albert Einstein, “Letter to P.S.Epstein”, 10.11.1945.
  • Aage Petersen, “The philosophy of Niels Bohr” (Bulletin of the Atomic Scientists Vol. 19, No. 7 – September 1963).
  • Murray Gell-Mann, “Il quark e il giaguaro” (Bollati Boringhieri – Torino – 1996 pag. 160).
  • Pierre Simone de Laplace, “Saggio filosofico sulle probabilità” (Parigi – 1814) “… Noi dobbiamo considerare lo stato presente dell’universo come l’effetto di un dato stato anteriore e come la causa di ciò che sarà in avvenire. Un’intelligenza che, in un dato istante, conoscesse tutte le forze che animano la natura e la rispettiva posizione degli esseri che la costituiscono, e che fosse abbastanza vasta per sottoporre tutti i dati alla sua analisi, abbraccerebbe in un’unica formula i movimenti dei più grandi corpi dell’universo, come quello dell’atomo più sottile; per una tale intelligenza tutto sarebbe chiaro e certo e così l’avvenire come il passato le sarebbero presenti”.
  • Werner Karl Heisenberg, “Sul contenuto intuitivo della cinematica e della meccanica nella teoria quantistica” (Zeitschrift fur Phisick, vol. 43. N. 4 – 1927).
  • Angelo Andreini, “Sulle reti di poliedri regolari e semiregolari e sulle corrispondenti reti correlative” (Tipografia della R. Accademia dei Lincei – Roma – 1905).
  • Ian Stewart, “Dio gioca a dadi? La nuova matematica del caos” (Bollati Boringhieri – Torino – 1993).
  • Albert Einstein, “Letter to Niels Bohr”, 4.12.1926.
  • Rudolf Steiner, “La filosofia della libertà” (Fratelli Bocca Editori – Milano – 1946).

Pierangelo Andreini
Giugno 2019