CAMBIAMENTO DI PARADIGMA – di Fiorello Casi

Il fenomeno della datizzazione non è la causa di questo mutamento radicale che si sta compiendo ma per molti versi ne è l’effetto. Lo proverebbe il fatto che, una volta raggiunto un livello sostenibile nel trattamento di grandi quantità di dati, a causa delle sfide scientifiche di inizio secolo (Genoma, CERN, Astronomia), tale approdo tecnologico ha di fatto consentito per la prima volta concretamente, di confrontarsi con enormi quantità di dati. Un esempio suggerito da diversi autori, riguardo le caratteristiche dei Big Data, è quello dei fotogrammi. Se si prende un singolo fotogramma relativo a un oggetto, le informazioni che se ne traggono sono numerose, ma non vanno molto oltre a quelle che se ne potevano trarre già alcuni secoli addietro. Certamente la risoluzione dell’immagine, i colori e le informazioni di contorno rendono la nostra immagine molto più ricca di quelle degli albori della scrittura; tuttavia il principio di base resta sostanzialmente lo stesso. Se prendiamo lo stesso fotogramma e lo inseriamo in un contesto dinamico, per esempio quello di 24 fotogrammi al secondo (il classico filmato), ecco che questo cambiamento quantitativo ne produce uno qualitativo eccezionale: come abbiamo già detto, la quantità molto spesso fa la qualità.

Per i Big Data vale la stessa regola, modificandone la quantità ne mutiamo l’essenza. Si corre, in buona sostanza, lungo una scala dimensionale, più aumentiamo i dati e più siamo in grado di osservare fenomeni che non si era in grado di evidenziare con minori quantità. Ecco cosa è emerso con chiara evidenza all’avvio del processo di trattamento di grandi quantità di dati; quando si trattano delle informazioni la quantità di dati a disposizione è fondamentale. E aziende come Google, Facebook, Twitter e Amazon, lo hanno capito benissimo da oltre dieci anni. E’ proprio questo snodo del progresso tecnologico che ha reso evidente l’importanza scientifica e di conseguenza economica dei Big Data. Sono non solo potenzialmente una fonte illimitata di potere economico ma soprattutto di quello politico. Il mando dei Big Data non è governato dal principio di causalità; ci si focalizza piuttosto sul “comee si possono, in questo modo, scoprire correlazioni e modelli che non si sarebbero potuti isolare altrimenti. Qui non si falsifica una teoria, non si cercano conferme a un’ipotesi; si analizzano i dati, attraverso delle domande poste da algoritmi predisposti e se ne analizzano i risultati, tutto ciò con l’intervento esclusivo e totale delle macchine, che sono ormai in grado, come nel caso del Machine learning, di autoprogrammarsi. E le correlazioni non forniranno mai i perché su cosa determina un dato fenomeno, ma sono in grado di segnalare che sta accadendo e fornirci le sue dimensioni. Infatti, se analizzando milioni di dati sanitari si rilevasse che pazienti cardiopatici, che assumono un determinato mix di farmaci, hanno un tasso di sopravvivenza decisamente superiore agli altri, la ricerca casuale di questa situazione può essere messa in secondo piano rispetto al fatto di adottare delle azioni al fine di estendere lo stesso mix alla maggioranza della popolazione censita, e salvare altre vite. Lo stesso vale per le analisi, che molti portali Web offrono, circa il momento migliore per acquistare un biglietto di viaggio o prenotare un hotel. Anche in questo caso il fornitore del servizio si limita ad analizzare moli gigantesche di dati e a fornire la previsione di quando sia il momento più conveniente per un acquisto. Anche in questo caso i Big Data non si pongono il problema del perché i prezzi in un dato momento scendano, si limitano a individuarlo con precisione e informare i clienti.

Quindi la fondamentale linea di demarcazione tra i Big Data e il resto della ricerca, come è stata universalmente riconosciuta, riguarda il fatto che non vengono ricercate le ragioni, le leggi universali e necessarie che stanno alla loro base; ma solo le modalità con le quali essi si manifestano, il come. Sono i dati acquisiti a darci l’esito alle nostre domande, nessuna teoria alle spalle a presiedere alla ricerca.

Prima dei Big Data le osservazioni si concentravano sull’analisi di un numero circoscritto di ipotesi che venivano isolate e formalizzate, il più delle volte, prima di iniziare la raccolta di campioni di dati. Da quando si possono interrogare i dati nella loro globalità la possibilità di collegamenti tra essi diventa enorme e consente, come abbiamo accennato, di individuare disegni della realtà diversamente non rilevabili. Riguardo al ruolo degli algoritmi nell’ecosistema dei Big Data, a sostegno di questa peculiarità, si possono portare come esempio numerose prassi, ormai consolidate, di aziende finanziarie che svolgono un monitoraggio sistematico dei dati generati da Twitter col fine di prevedere l’andamento dei mercati azionari. Amazon e altre aziende commerciali analizzano le relazioni tra i loro utenti per prevedere la tipologia di prodotti che verranno richiesti e Linkedin e Facebook costruiscono un grafo sociale dalle interrelazioni tra i loro utenti per determinarne preferenze, idee e orientamenti.

Da quando questa nuova modalità di approccio ai dati ha trovato la sua realizzazione pratica, si è innescata una corsa alla estrazione dei dati (Data mining) e alla loro valorizzazione, che resta celata in un approccio causale e si disvela nelle correlazioni. Ma il fatto ancora più interessante concerne la infinita riutilizzabilità dei dati, dovuto al loro valore intrinseco e che aspetta di essere scoperto, proprio come un nuovo filone prezioso, da nuovi incroci e nuove intercettazioni con altri dati. Questa caratteristica ha aperto delle enormi opportunità di mercato, come già visto e come si approfondirà nell’ambito della sezione sugli algoritmi. A questo riguardo bisogna ricordare come progressivamente, per tutto lo svolgere del 1900, il valore economico si sia spostato progressivamente, soprattutto dalla seconda metà del secolo, da beni e infrastrutture fisiche, quali i terreni e le fabbriche, a quelli di beni e strutture sempre più immateriali, dall’irrompere della finanza sull’economia, dalle proprietà intellettuali (i brevetti) ai marchi e ai servizi. E questa direzione si è rafforzata con l’avvento della digitalizzazione e sta accelerando all’inizio del secolo presente.

La dematerializzazione oggi è imposta e regolamentate per legge dagli stati. Per le aziende i database sono una materia prima fondamentale per la gestione del quotidiano e la progettazione del futuro; i dati sono la materia prima dell’informazione, un mercato dematerializzato ma ormai centrale nei modelli di business. Infatti i primi enti a usare i Big Data sono stati quelli governativi, in special modo le agenzie di intelligence, i grandi laboratori di ricerca ma anche le grandi aziende di distribuzione che, con l’adozione d’avanguardia di questi strumenti, hanno cambiato definitivamente il modello di business di questi enormi settori; basti pensare a colossi come Ikea, Carrefour, Walmart, McDonald’s, e altri.