Complessità e datizzazione (seconda parte) – di Fiorello Casi

La fine del XIX e l’inizio del XX secolo assistono a un grande balzo epocale in ambito scientifico. Per quanto concerne il nostro obiettivo, ci limitiamo a richiamare, tra i numerosissimi scienziati attivi in quel periodo, Henri Poincaré e la sua dimostrazione del cosiddetto problema dei tre corpi (quello dei tre corpi appartiene a una classe di problemi della dinamica di base relativi alla meccanica classica. Esso consiste nel calcolare, date la posizione iniziale, la massa e la velocità di tre corpi soggetti all’influsso della reciproca attrazione gravitazionale, ovvero, l’evoluzione futura del sistema da essi costituito), del quale ne dimostrò la non integrabilità; cioè l’impossibilità di calcolare le traiettorie esatte dei corpi in movimento e interagenti tra loro. Questo fatto, nell’economia del nostro discorso è importante perché lo studio in questione pone le prime basi di un nuovo ambito scientifico; quello del “caos deterministico”, relativo a sistemi che, pur presentando componenti guidati da leggi deterministiche, sfuggono alla previsione di un tale modello interpretativo. Poincaré descrive in questo modo questo fenomeno:

Una causa piccolissima che sfugga alla nostra attenzione determina un effetto considerevole, che non possiamo mancare di vedere, e allora diciamo che l’effetto è dovuto al caso. Se conoscessimo esattamente le leggi della natura e la situazione dell’universo all’istante iniziale, potremmo prevedere esattamente la situazione dello stesso universo in un istante successivo.

Il punto che interessa in questa sede è quello che riguarda il momento in cui si prese coscienza della presenza di tanti fenomeni eccezionalmente sensibili, nella loro situazione di partenza, la cui determinazione esatta diventava il punto cruciale per prevedere il loro comportamento successivo.

Inizia da questo momento a emergere la chiara consapevolezza che il mondo autenticamente reale deve fare i conti con un tasso di complessità molto più elevato di quanto fino ad allora si ritenesse. E il corso del XX secolo è costellato di altre numerosissime scoperte in questa direzione; fra i tanti ci fu lo studio dei fenomeni termodinamici, con la constatazione della loro caratteristica di irreversibilità e con l’introduzione dell’importante concetto di entropia. Tutto ciò determinò una visione del mondo orientata dal punto di vista della variabile temporale e al disordine crescente. Con Albert Einstein e la sua teoria della relatività si rividero addirittura i concetti di spazio e tempo, scalzando in pochi anni la visione newtoniana e kantiana proprie della scienza classica. In questo caso rientra in gioco, dopo Kant, il ruolo della soggettività che conferisce nuovamente la centralità del punto di osservazione nella descrizione e nel modo di interpretare i fenomeni dell’universo.

 

Ma negli stessi anni, dalle dimensioni illimitate e infinite dell’universo, si poneva attenzione anche all’osservazione dei fenomeni del mondo microscopico attraverso la meccanica quantistica; e i risultati furono altrettanto eclatanti. In questo caso veniva coinvolto anche l’ambito ontologico e non solo quello gnoseologico; infatti non cambiava solo la percezione della capacità umana di comprendere il mondo ma anche la consapevolezza che i fenomeni osservati assumevano comportamenti intrinsecamente non determinati ma descrivibili facendo ricorso anche al concetto di probabilità. Heisenberg nel 1927 formulò il noto Principio di Indeterminazione, sancendo l’impossibilità di essere in grado di determinare contemporaneamente, in modo puntuale, la quantità di moto e la posizione di una particella sub atomica, sancendo di fatto il ruolo attivo dello scienziato osservatore nello studio dei fenomeni. La realtà a questo punto, non è rappresentata solo da un oggetto che può essere registrato e misurato, ma è l’atto stesso dell’osservazione che influenza il processo cognitivo, e che rimanda un’immagine del mondo interpretata dalla posizione del soggetto.

Con James Maxwell si giunse ad approfondire la conoscenza circa le particelle che compongono la materia, le quali hanno una doppia natura, sia corpuscolare, sia ondulatoria; e che si manifesta a seconda del tipo di osservazione operata su di esse. E con Erwin Schrodinger, grazie alla sua equazione che descrive lo stato di un oggetto quantistico, si iniziò a prendere coscienza delle possibili implicazioni, che diventavano paradossali traslate a livello macroscopico, prodotte dall’introduzione di questi concetti della fisica dei quanti e descritte dall’ormai noto e diffusissimo esperimento del “gatto”.

Tutto ciò è utile per comprendere, collocando questi eventi in una prospettiva storica, come il concetto di complessità, in modo sottile ma inesorabile, si sia fatto strada nel tempo e sia divenuto centrale nell’ambito della vasta comunità scientifica.

Ma il “caos deterministico”, che aveva visto il suo avvio con Poincaré, ha proseguito nel suo percorso riscuotendo nuove e ulteriori attenzioni.

Edward Norton Lorenz era un matematico e meteorologo statunitense che, nel 1961, elaborando un modello matematico sulle previsioni del tempo atmosferico, si accorse per caso e in seguito ad approssimazioni introdotte sui numeri elaborati dal computer, che tale modello presentava una inaspettata (ed esponenziale) sensibilità alle condizioni iniziali o meglio, originarie. Questo comportamento venne descritto dallo stesso Lorenz con la domanda: “Può il battito delle ali di una farfalla in Brasile scatenare un tornado in Texas?” (Lorenz all’American Association for the Advancement of Sciences, 1979). Nasceva “l’effetto farfalla” noto, diffusissimo e spesso svilito da un uso massificato ma comunque emblematico della teoria del caos. Fino a questo punto si può trarre un bilancio parziale di quanto si è visto; le relazioni dei fenomeni esistenti in natura producono comportamenti non riconducibili alle singole parti e, soprattutto, sono inaspettati e non deterministici. E una derivata importante di questi studi si ottenne da quelli sui fenomeni catastrofici, mentre con altri si approfondì la conoscenza circa le regolarità inattese nei comportamenti dei sistemi caotici.

Lo stato dello sviluppo scientifico e tecnologico di questo periodo comincia a inglobare degli aspetti importanti, fattori chiave per l’economia del nostro discorso; l’importanza che una visione sistemica assume nello studio dei fenomeni; la disponibilità di importanti risorse computazionali mai avute prima di allora; e, come si vedrà più avanti, la comparsa del concetto di rete, che raggiungerà il suo completo dispiegamento in tempi recenti, con il costituirsi dei  grandi consorzi di ricerca e la Big Science.

Altri passi giganteschi sono stati compiuti, dalla metà del secolo scorso a oggi nel campo scientifico, e tutti hanno avuto a che fare con sistemi con un alto grado di complessità e il loro trattamento. Si è giunti alla conclusione che tali sistemi non possono essere inseriti in un quadro teorico introducendo semplicemente la probabilità come fattore che stabilisca una relazione tra i fenomeni microscopici e il comportamento macroscopico; infatti, come già Heisenberg e Schrodinger avevano dimostrato, è l’impossibilità di compiere esperimenti ripetibili che mette lo studioso della complessità nelle stesse condizioni degli astrofisici che studiano le origini dell’universo; il big bang non può essere ripetuto in laboratorio ed è quindi necessario dotarsi di strumenti diversi per comprendere i fenomeni nel mentre del fluire delle cose. E da questo continuo fluire possono emergere i “pattern” e i comportamenti che, se isolati e individuati, consentono tramite l’analisi dei dati, di trasformarsi in una nuova conoscenza. Anche se sospettiamo che la totalità dei fenomeni che costituiscono la realtà non saranno mai completamente afferrabili, con questo sistema è certamente possibile prendere decisioni o trovare soluzioni con una dotazione di informazioni più adeguata all’entità dei problemi che dovremmo affrontare e di avviare procedure operative in grado di raggiungere, con maggiore possibilità di successo, gli obiettivi legati alla ricerca e alla soluzione dei problemi. A questo riguardo la disponibilità di dati in forma digitale, come si è già visto, cresce in modo esponenziale. Da un lato si indirizza verso l’ambiente esterno all’individuo; registrando mutamenti e variazioni, dal clima, al microclima, numero di nati, di morti, di matrimoni, divorzi, di promossi e bocciati. Dall’altro acquisendo dati sui comportamenti umani (registrando le nostre tracce digitali), mediante degli apparati tecnologici, le telefonate, le email, navigazione in Rete, acquisti, ecc.

La spinta alla datizzazione del mondo sta generando un mondo parallelo digitale nel quale il ruolo della fisica per buona parte, potrebbe venire assunto da una futuribile scienza dei dati, con nuovi e diversi strumenti e paradigmi per la loro gestione