Gramsci, i big data e il senso comune [di Silvano Tagliagambe]
Qualche mese fa è uscito in traduzione italiana un notevole libro di Dominique Cardon (Che cosa sognano gli algoritmi, Mondadori 2016) che mette giustamente sotto processo molti discorsi relativi ai big data, espressione ormai diventata d’uso comune per descrivere una raccolta di dati così estesa in termini di volume, velocità e varietà da richiedere tecnologie e metodi analitici specifici per l’estrazione del loro significato. In proposito l’autore sottolinea giustamente che di big data si può discutere, “a patto di mantenere le distanze da certe mitologie che riempiono i discorsi dei loro promotori”. Alla base di tutte queste mitologie vi è un famoso post di Chris Anderson pubblicato il 23 giugno del 2008 su ‘Science’ dal titolo emblematico: La fine della teoria. Il diluvio di dati rende obsoleto il metodo scientifico. Il nocciolo dell’argomentazione proposta in questo provocatorio contributo è che la straordinaria potenza di calcolo oggi a disposizione, grazie alla quale siamo ormai in condizione di analizzare basi dati enormi a basso costo e in tempi sempre più rapidi, consente un apprendimento di tipo statistico che avviene in assenza di una reale comprensione dei fenomeni. I dati, secondo Anderson, parlano da soli, al punto che non abbiamo bisogno di alcuna teoria per interpretarli e di alcun modello per rappresentarli: essi sono autosufficienti, bastano per comprendere i fenomeni naturali e sociali. Il paradigma dei big data riporterebbe dunque il discorso scientifico sul piano dell’oggettività dei fenomeni osservati, senza bisogno di riferirsi all’orizzonte di attese dell’osservatore, in quanto non vi è alcun benchmark, parametro o punto di riferimento fissato a priori. Con i big data si lascia che siano i dati a dirci quali sono il benchmarck, la correlazione, il modello. I dati ci svelano il loro segreto, a prescindere dall’ipotesi di partenza (che diventa pertanto irrilevante). Essi ci fanno dunque vedere come stanno i fatti, senza alcuna pregiudiziale. Le cose stanno così perché sono i dati a dircelo; sono loro a segnalarci le correlazioni significative fra un numero tendenzialmente infinito di variabili. Queste mitologie rendono quanto mai attuale e profetico il seguente passo di Gramsci, tratto dal Quaderno XVIII (in Il materialismo storico, a cura di L. Gruppi, Roma, Ed. Riuniti, 1971, p. 67): “È da notare che accanto alla più superficiale infatuazione per le scienze, esiste in realtà la più grande ignoranza dei fatti e dei metodi scientifici, cose molto difficili e che sempre più diventano difficili per il progressivo specializzarsi di nuovi rami di ricerca. La superstizione scientifica porta con sé illusioni così ridicole e concezioni così infantili che la stessa superstizione religiosa ne viene nobilitata. Il progresso scientifico ha fatto nascere la credenza e l’aspettazione di un nuovo tipo di Messia, che realizzerà in questa terra il paese di Cuccagna; le forze della natura, senza nessun intervento della fatica umana, ma per opera di meccanismi sempre più perfezionati, daranno alla società in abbondanza tutto il necessario per soddisfare i suoi bisogni e vivere agiatamente. Contro questa infatuazione, i cui pericoli sono evidenti (la superstiziosa fede astratta nella forza taumaturgica dell’uomo, paradossalmente porta ad isterilire le basi stesse di questa forza e a distruggere ogni amore al lavoro concreto e necessario, per fantasticare, come se si fosse fumato una nuova specie di oppio) bisogna combattere con vari mezzi, dei quali il più importante dovrebbe essere una migliore conoscenza delle nozioni scientifiche essenziali, divulgando la scienza per opera di scienziati e di studiosi seri e non più di giornalisti onnisapienti e di autodidatti presuntuosi. In realtà, poiché si aspetta troppo dalla scienza, la si concepisce come una superiore stregoneria, e perciò non si riesce a valutare realisticamente ciò che di concreto la scienza offre”. Sembra una critica ante litteram della nuova mitologia di cui Anderson si fa portabandiera: Gramsci ci insegna che bisogna smascherare la presunta oggettività dei dati, che non si presentano mai allo stato grezzo. Registrare e quantificare vuol dire già interpretare. Ecco perché gli algoritmi dei big data non sono neutrali. A sostegno di questa sua posizione possiamo del resto citare ciò che ci dice una teoria fisica consolidata come la meccanica quantistica: misurare significa fissare indicatori e categorie, definire un orizzonte di attese, intervenire sulla realtà oggetto di studio e modificarla. C’è una distanza irriducibile tra descrivere e misurare: mentre la descrizione prescinde dalla dimensione temporale, dal «qui e ora», e nell’ambito di essa il soggetto non ha un ruolo di effettiva partecipazione e incidenza, la misura, al contrario, implica un’azione irreversibile. Ed è questa azione irreversibile dell’osservatore che porta a un’informazione – intesa quale esito di un’azione che dà forma all’oggetto di studio. D’altra parte, per definizione, ogni azione richiede tempo ed energia (nella fisica quantistica l’azione è un concetto fondamentale; essa è espressa dal prodotto di un’energia per un tempo e si misura in unità della costante di Planck, h). Per passare da una descrizione (forma) a una misura attiva (evento) occorre dunque rimuovere la stazionarietà ed entrare nella dimensione tempo. Vi è poi un altro aspetto da sottolineare per quanto riguarda la supposta oggettività del paradigma big data, per smascherare la quale la lettura di molte pagine di Gramsci risulta salutare. La prima è che i grandi filoni di dati non sono a disposizione di chiunque, ma tendono a essere oggetto di un controllo oligopolistico. Pochi operatori, a livello mondiale, detengono e organizzano la maggior parte dei dati che ci riguardano, per lo meno per quanto concerne la nostra vita online. Parliamo soprattutto di Google, Facebook e Amazon, i signori dei big data. Del resto solo loro dispongono dell’infrastruttura e della potenza di calcolo necessarie per effettuare analisi su tali dati. Ed è chiaro che tali soggetti agiscono sulla spinta di interessi commerciali tutt’altro che neutrali. Si aggiunga il fatto che le caratteristiche degli algoritmi utilizzati da Google, Facebook e Amazon non ci sono note, in quanto parte di un segreto industriale ben custodito. In questo senso va segnalato un altro bel saggio, quello di Frank Pasquale, The Black Box Society: The Secret Algorithms That Control Money and Information (Harvard University Press 2015), nel quale si parla di big data come “scatole nere” e si mette in guardia contro un potere fondato sempre di più sulla segretezza. Ecco perché abbiamo bisogno, sempre più bisogno, di teoria, di cultura diffusa e di chiavi interpretative: operazioni, come quelle di Anderson e di molti dei suoi seguaci interessati, che parlano di “fine della teoria” appaiono, se lette con il supporto di passi come quello di Gramsci che ho citato, ciò che effettivamente sono: una riproposizione in chiave moderna ed efficientistica della classica (e oscurantistica) teoria della “doppia verità”, che mira a privare il senso comune della possibilità e del diritto di capire, riservato a élite sempre più ristrette e potenti. |