Disinformazione virale [di Francesco Suman]
MicroMega on line 12 dicembre 2016. Tutti parlano di “post-verità”. Il nuovo libro di Walter Quattrociocchi e Antonella Vicini, Misinformation – guida alla società dell’informazione e della credulità, getta luce sui meccanismi di formazione dell’opinione pubblica a partire dall’analisi di dinamiche di diffusione dell’informazione sui social network: siamo esseri creduloni e miriamo a confermare ciò che già crediamo di sapere. Il risultato è che abbocchiamo troppo facilmente alle notizie false. Il fenomeno della diffusione della disinformazione ha raggiunto livelli tali da far riunire istituzioni, esperti di informazione e ricercatori per cercare di elaborare soluzioni al problema, nel rispetto del fondamentale diritto alla libertà d’espressione. Secondo l’Oxford Dictionary, che ogni anno monitora le frequenze con cui nuovi termini vengono impiegati, la parola internazionale dell’anno è post-truth, post-verità, un neologismo che è stato coniato per fotografare un fenomeno che purtroppo sta dominando le dinamiche di diffusione dell’informazione a livello internazionale, sia online, sia offline. Il termine sta a indicare circostanze in cui i fatti oggettivi sono meno influenti, nella formazione dell’opinione pubblica, del richiamo alle emozioni e alle convinzioni personali. Notizie sensazionalistiche hanno più successo di notizie che semplicemente aderiscono ai fatti. Giocare con la sfera emozionale dell’audience è da sempre una strategia molto efficace non solo per diffondere una notizia ma anche per vendere un prodotto: le strategie di marketing fanno leva anche su questo aspetto per persuadere il consumatore ad acquistare ciò che viene pubblicizzato. Sarà nell’interesse del venditore convincere il cliente che quel dato prodotto viene incontro a delle esigenze che forse non sapeva nemmeno di avere. Regole del gioco di un mercato e di un’economia che si reggono sul consumo e che portano i loro attori ad alimentarlo continuamente. Fin qui si sta parlando di coinvolgimento emozionale per l’acquisto di un prodotto, un bene materiale. Qualcuno potrà dire che già in questo sistema c’è qualcosa che non va, che l’aumento dei consumi non potrà andare avanti all’infinito, prima o poi ci si dovrà scontrare con la limitatezza delle risorse. Ma tant’è: questa è la trappola in cui l’uomo dell’Antropocene sembra essersi infilato. Si entra invece in un campo decisamente più delicato quando la persuasione emotiva si associa alle dinamiche di diffusione di una notizia, perché non si sta parlando più della vendita (esplicita o subliminale) di un bene materiale, il cui valore può essere misurato quantitativamente in termini di prezzo; si sta parlando di qualcosa di immateriale come un pacchetto di informazione il cui valore e cui la cui qualità, in linea di principio, andrebbero misurati in termini di attinenza alla verità dei fatti. Giocare con la verità dei fatti per diffondere o peggio vendere una notizia può diventare un gioco pericoloso. Nella reticolare società dell’informazione sembra che il criterio secondo cui le notizie si diffondono non privilegi necessariamente l’oggettività dei fatti; le notizie false, le bufale, si diffondono in maniera virale e incontrollabile mostrando una strutturale vulnerabilità del sistema. Un esempio alquanto divertente è rappresentato dal caso di un utente dell’area di Boston che ha riportato sul suo account twitter immagini pornografiche che sarebbero andate in onda per circa 30 minuti sul suo ordinario canale CNN intorno alle 22.30 del giorno del Ringraziamento, al posto dell’usuale show di Anthony Bourdain [1]. Nelle ore successive la notizia è stata rimbalzata da importanti testate giornalistiche come The Independent, New York Post e Daily Mail, assumendo per vero il fatto. La pornostar immortalata nelle immagini pure ha espresso gratitudine, con un tweet alla CNN, per tanta gratuita generosa pubblicità. Nessun altro utente tuttavia ha riscontrato la medesima anomalia di trasmissione sul canale CNN. Che si sia trattato di un singolare problema tecnico pervenuto all’antenna dello (s)fortunato utente di Boston, o piuttosto si è trattato di una notizia fabbricata? Il punto è che una bufala contiene esattamente la stessa quantità di informazione di una notizia vera, ovvero fornisce materiale attorno a cui si può fare dell’ottima conversazione. Da questo punto di vista sono equivalenti. Una bufala invece si distingue da una notizia vera per la qualità dell’informazione veicolata, ovvero per quanto questa si approssima alla verità dei fatti. Verificare la qualità di un’informazione sembra essere una questione davvero complicata e spesso anche, purtroppo, secondaria. La notizia può essere talmente succulenta che è più vantaggioso propagarla immediatamente piuttosto che verificarla; è bello credere che sia vera, senza verificare se effettivamente lo sia. La velocità del mezzo di trasmissione (Twitter nella fattispecie, in cui basta un click per rendere accessibile la notizia a una moltitudine di utenti, ciascuno dei quali possiede la medesima facoltà) e il desiderio di arrivare primi nel dare la notizia, l’esclusiva, sono fattori che favoriscono la scarsa attenzione alla qualità dell’informazione. Chi ci rimette in questo meccanismo è la verità. Martedì 29 Novembre si è tenuto presso la Sala della Lupa di Palazzo Montecitorio un convegno intitolato “Non è vero ma ci credo – vita morte e miracoli di una falsa notizia” introdotto dalla Presidente della Camera Laura Boldrini e moderato dal giornalista e “cacciatore di bufale” Paolo Attivissimo, per portare all’attenzione anche delle istituzioni un fenomeno sociale sempre più crescente. Il convegno (di cui si può prendere visione qui [2]) ha visto l’intervento di Giovanni Boccia Artieri, docente di Sociologia dei media digitali; Ida Colucci, direttice del Tg2; Raffaele Lorusso, segretario generale della FNSI (Federazione Nazionale Stampa Italiana); Luca Sofri, direttore del Post; e Walter Quattrociocchi, direttore del Laboratorio Computational Social Science IMT di Lucca, autore di una serie di studi sulla diffusione dell’informazione online pubblicati da alcune tra le più prestigiose riviste scientifiche internazionali (l’ultimo è di pochi giorni fa su Nature Scientific Reports [3]), nonché autore assieme alla giornalista Antonella Vicini del libro Misinformation – guida alla società dell’informazione e della credulità, Franco Angeli[4]. Proprio Ida Colucci, direttrice del Tg2, nel suo intervento ha riportato l’esempio del tweet dell’utente di Boston per sottolineare quanto gli odierni social media, ma non solo, siano permeabili al rischio di diffusione virale della disinformazione. Una volta le agenzie di stampa erano i primi organi a diffondere una notizia, rispondendo a una seppur elementare logica di regole editoriali, il che garantiva un maggiore controllo sulla qualità della notizia (anche se pure le agenzie di stampa non sono immuni dagli errori). I social media invece oggi hanno rivoluzionato le modalità di diffusione delle notizie e delle informazioni. Social media come Facebook rappresentano ciò che Walter Quattrociocchi definisce un ecosistema dell’informazione totalmente disintermediato, in cui ogni utente è allo stesso tempo emittente e consumatore di informazione. Ciascun utente può immettere informazione nella rete e rimbalzare informazioni di altri utenti, in una forma grezza, anarchica o auto-organizzata, di giornalismo partecipativo, una sorta di società liquida dell’informazione. Viene meno la classica figura dell’intellettuale, proprio perché viene meno la posizione privilegiata che l’intellettuale si era guadagnato; in un contesto disintermediato tutti partono dallo stesso piano, e dunque tutti possono potenzialmente aspirare a ricoprire il ruolo dell’opinion leader, sull’onda del culto della personalità più che sul fondamento di sudate competenze. Internet permette una comunicazione trasversale e l’utilizzo di una memoria collettiva. Tuttavia, proprio perché c’è spazio e risorse per tutti, la selezione sulla qualità dell’informazione è spesso molto rilassata. In un sistema così strutturato, infatti, il beneficio della velocità di trasmissione dell’informazione è inversamente proporzionale alle possibilità di monitorarne la qualità e verificarne l’attendibilità, esponendo il sistema al rischio di diffusione di notizie false. La ragione della diffusione delle notizie false sembra dunque essere almeno in parte legata alla struttura del sistema stesso. Ma a ben guardare, è davvero corretto considerare Facebook o Twitter come veri e propri media? Tra queste piattaforme social e i media tradizionali, come giornali o televisioni, intercorre infatti una differenza fondamentale: in questi ultimi la diffusione delle informazioni è regolamentata da una struttura editoriale, mentre i primi rappresentano sistemi acefali in cui non vi è nessuno che stabilisce cosa debba essere pubblicato e cosa no, non vi è alcuna linea editoriale da tenere. I social media andrebbero dunque interpretati non come media tradizionali, bensì come uno strumento di amplificazione della vita reale, un megafono virtuale delle dinamiche comunicative e sociali, con pochi filtri al di fuori della censura dell’osceno e della preservazione del pubblico decoro. La rete è un luogo dove chiunque ha diritto di cittadinanza, a prescindere da esperienze personali e competenze pregresse: è un’alternativa possibile alle gerarchizzazioni della società ordinaria, in cui tutto è resettato. Se qualcuno si siede su una panchina in piazza e racconta che le pastiglie che prende per il mal di testa non servono a niente, i suoi argomenti potranno essere liberamente accolti o rigettati da chiunque abbia voglia e tempo di ascoltarlo. Allo stesso modo sulle piattaforme social, uno si guadagna l’attenzione degli astanti se ci saranno altri disposti ad accogliere le sue ragioni o anche semplicemente i suoi modi espressivi. Ma proprio qui sta il punto. Come assimiliamo nuova informazione? In questo continuo e caotico flusso di informazione che ci investe, quali sono i criteri secondo cui una notizia fa breccia tra le nostre convinzioni e credenze? Gli studi di Quattrociocchi e colleghi, senza precedenti in termini di quantità di dati analizzati, portano alla luce un trend molto chiaro: il pregiudizio di conferma (confirmation bias) la fa da padrone, il che significa che il processo di accettazione delle informazioni è legato alla tendenza di ogni individuo a conservare intatto il proprio sistema di credenze, a perturbarlo il meno possibile. La tendenza alla credulità è dunque insita nel nostro sistema cognitivo prima ancora che nella rete (a questo riguardo si consiglia una lettura che illustra le ragioni biologiche, cognitive e financo evolutive delle nostre innate tendenze psicologiche: Nati per credere, Codice edizioni, di Vittorio Girotto, Telmo Pievani e Giorgio Vallortigara [5]) e tutto sommato la ragione di questa nostra tendenza può risiedere in un semplice e funzionale principio: è economico, parsimonioso, rimanere in una comfort zone informazionale, in quanto ciò comporta pochi riassestamenti della nostra architettura concettuale. Le idee semplici sembrano adagiarsi bene alle nostre pigre menti che prima di ogni altra cosa ricercano conferme di ciò che già sanno o credono di sapere. Questo meccanismo di selezione dell’informazione si somma ad un altro meccanismo socio-psicologico che un social media come Facebook ha portato alla luce e che Quattrociocchi e Vicini definiscono egosurfing, ovvero quella tendenza a ricercare la definizione della propria personalità attraverso il rispecchiamento nell’approvazione e nelle preferenze degli altri. Il sistema del “Like” ha sdoganato le tendenze narcisistiche di ognuno di noi bisognoso di attenzioni e approvazioni per definire sé stesso. Il che però ci porta a definirci come personaggi prima ancora che come persone. Ognuno tende a ricreare in piccola scala l’esperienza della fama e della celebrità; ognuno mira a massimizzare la propria auto-promozione, una sorta di tendenza a massimizzare la propria fitness narcisistica. Su larga scala, contenuti più semplici si diffonderanno maggiormente rispetto a contenuti complessi, proprio perché raggiungeranno un più vasto pubblico. Un altro rischio emergente dalla struttura del sistema sembra dunque essere l’ipersemplificazione dei contenuti. Questa spinta a definire se stessi incontrando il favore altrui, sommata alla tendenza ad assimilare solo quell’informazione che si adatta al sistema precostituito di credenze di ciascuno, genera un effetto riscontrato dagli studi di Quattrociocchi e colleghi noto come la formazione di echo chambers, ovvero camere di risonanza, stanze degli specchi in cui un’audience amica mette Like alle stesse cose che piacciono a noi, in cui le nostre credenze precostituite sono confermate: siamo avvolti in una comfort zone informazionale. Un’analisi troppo pessimista? I social media non sono la finestra sul mondo che pensavamo? Forse stiamo solo pretendendo troppo da queste piattaforme: ciascuno di noi è e rimarrà un essere senziente limitato; l’umanità è ancora lontana dal partorire persone capaci di integrare nella propria prospettiva posizioni pluraliste; l’interconnessione consentita dalla rete ci apre sicuramente nuovi orizzonti, ma siamo ancora molto distanti dall’utopia politica e culturale secondo cui interconnessione e comunicazione equivalgono immediatamente a tolleranza e reciproca comprensione. È naturale aspettarsi che ciascun utente tenda a costruirsi la propria nicchia confortevole nella giungla dell’informazione online. Dunque niente di cui preoccuparsi? Non esattamente. Il World Economic Forum ha inserito la diffusione della disinformazione nei rischi globali nel suo rapporto 2013, con possibili risvolti politici, geopolitici e terroristici.Uno degli studi di Quattrociocchi e colleghi [6] ha preso in analisi più di 270.000 post presenti su 73 pagine facebook italiane, divise in due macrogruppi: 34 di informazione scientifica e 39 di informazione alternativa e cospirazionista. L’analisi mette in luce due tendenze principali: la prima è che le pagine alternative/cospirazioniste registrano un maggior numero di interazioni (numero di post pubblicati, Like, condivisioni, commenti) rispetto alle pagine scientifiche; la seconda è che l’interazione tra utenti appartenenti a tipi di narrazione diversi è fallimentare, ovvero le posizioni radicalizzate di narrative opposte non consentono la comunicazione inter-gruppo. Si tratta della polarizzazione delle summenzionate echo chambers: utenti appartenenti a narrative diverse mirano a imporre le proprie ragioni, non ascoltano quelle degli altri e finiscono per formare comunità fortemente polarizzate. Fino a poco tempo fa si parlava del problema della cyber-security (sicurezza digitale), mentre oggi si parla anche di information war, ovvero la guerra delle informazioni. Una volta sedimentatasi un’idea è difficile estirparla, dunque le azioni di debunking (smontare argomentazioni ritenute false con il fact-checking, ovvero la pedissequa verifica dei fatti) si rivelano spesso inefficaci tra comunità aderenti a narrative opposte, proprio perché prevalgono resistenze psicologiche profonde su argomentazioni razionali. La tendenza di ciascuna comunità a cristallizzarsi intorno a narrative o visioni della realtà condivise infatti ha come conseguenza la possibilità di assimilare qualsiasi tipo di informazione vada a sostegno di quella narrazione o visione della realtà, ivi incluse le false notizie.La questione si fa estremamente più spinosa e delicata nel momento in cui si intreccia a questioni politiche, o peggio ancora, quando sono gli stessi leader politici a farsi promotori di disinformazione. Si fa riferimento ad esempio al celebre tweet del neo presidente eletto degli Stati Uniti d’America, risalente ormai a 4 anni fa, secondo cui il “concetto di riscaldamento globale è stato inventato da e a favore dei cinesi con lo scopo di rendere la manifattura statunitense non competitiva” [7]. La strategia comunicativa di Trump è stata tutta volta a fornire una narrazione alternativa a quella dominante; ciò ha comportato anche aver dato credito a diverse teorie complottistiche, come testimonia un’intervista rilasciata al conduttore radiofonico e operatore del sito infowars.com, noto per le sue inclinazioni complottistiche, Alex Jones [8], in cui Trump conferma, tra le altre cose, ciò che diverse persone avrebbero visto, ovvero musulmani che festeggiano la caduta delle Torri Gemelle. Buzzfeed news negli scorsi mesi ha riportato che le notizie false circolate su facebook negli ultimi 3 mesi della campagna elettorale statunitense hanno registrato più interazioni (condivisioni, commenti e likes) delle notizie riportate dalle agenzie di stampa [9]. Occorre tuttavia dire che nel caso delle vicende legate al neo presidente statunitense la disinformazione non si diffonde unilateralmente; ad esempio, la notizia secondo cui Trump avrebbe detto di voler rimuovere la Statua della Libertà in quanto incentivo all’immigrazione è stata rimbalzata da alcune tra le maggiori testate giornalistiche, pur essendo nata come notizia satirica [10]. Nessuno è immune dal pericolo di farsi abbindolare da una bufala. La disinformazione si può accumulare al punto da generare narrazioni della realtà completamente inedite e alternative. Le teorie del complotto offrono spesso visioni confortanti (anche solo nell’identificare un nemico) o autoconsolatorie (se le cose vanno così dipende da un complotto più grande me) di una realtà molto complessa e invero difficile da decifrare. Anche di questo si è parlato nel convegno internazionale che si è tenuto dal 28 al 30 novembre presso l’Università di Padova (SCIECONS – science and conspiracy: dealing with scientific denialism, distrust of expertise and conspiracy theories [11]), organizzato dal CISFIS (Centro Interdipartimentale di Ricerca in Storia e Filosoifa della Scienza) e dal FISPPA (Dipartimento di Filosofia, Sociologia, Pedagogia e Psicologia Applicata) dell’Università di Padova, in cui diversi esperti si sono confrontati su tematiche riguardanti la percezione sociale delle teorie del complotto, la loro struttura logica e i risvolti etici e sociologici ad esse associati. Tra gli altri è intervenuto l’australiano Stephan Lewandowsky, psicologo cognitivo dell’università di Bristol, che si occupa dei meccanismi socio-cognitivi che portano al diniego del cambiamento climatico mettendo in luce le inconsistenze logiche in cui necessariamente incorrono i negazionisti (per approfondire [12]). È possibile pensare di regolamentare in qualche modo il flusso di disinformazione? Abbiamo visto che le dinamiche di diffusione delle notizie false online sembrano dipendere dalla struttura stessa dell’ecosistema dell’informazione in cui viaggiano. Esistono poi anche siti web che immettono nel flusso di informazione notizie false che sono anche click bait, ovvero esche da click. Più alto è il numero di click ricevuti, più alti sono i ricavi che questi siti ottengono grazie alle inserzioni pubblicitarie. Google è uno dei più grandi intermediari della gestione delle pubblicità online grazie alla sua piattaforma Adsense; ed è attraverso la condivisione sui social network che notizie false nate anche da siti web di poco conto possono raggiungere una diffusione tale da affiorare talvolta anche nel sistema informativo dei media tradizionali. L’idea di Google di impedire a siti che diffondono bufale di servirsi del sistema di inserzione pubblicitaria Adsense potrebbe costituire un primo argine alla diffusione della disinformazione online. Tuttavia il tema resta molto delicato, in quanto occorre trovare il modo di conciliare una corretta informazione con la garanzia del diritto di libertà d’espressione. C’è chi addirittura propone di mettere una sorta di marchio ai “siti bufalari”, ma se è vero che internet non è un semplice media tradizionale, bensì una riproduzione online di rapporti sociali e comunicativi, questo genererebbe un problema etico di web reputation di non poco conto, che rischierebbe di sfociare nell’equivalente online di azioni persecutorie. Risulta estremamente difficile, se non quasi impossibile, infatti, elaborare criteri strettamente oggettivi secondo cui definire cosa sia una fonte di informazione affidabile e cosa non lo sia. Secondo la Presidente della Camera Laura Boldrini, la disinformazione è l’anticamera dell’odio e smontare le bufale un’azione di resistenza civile. Per questo Boldrini ha istituito il 10 maggio 2016 una commissione parlamentare contro i fenomeni d’odio, intitolata a Jo Cox, esponente politico del partito laburista britannico uccisa alla vigilia del voto per la Brexit. Il 28 luglio 2014 invece aveva già iniziato i lavori la Commissione parlamentare volta allo studio dei diritti e dei doveri dei cittadini per quanto riguarda Internet. Boldrini lo scorso 30 novembre ha anche incontrato a Montecitorio Richard Allan, vice presidente public policy in Europa di Facebook, per discutere le misure da prendere a difesa di chi è oggetto di cyberbullismo, insulti e violenze. La credulità è una caratteristica umana troppo umana, e i social network sembrano essere riusciti ad amplificare questa nostra innata tendenza. La credulità però è anche il veicolo per permettere la manipolazione della realtà. I media tradizionali che hanno dominato la nostra quotidianità negli ultimi 20 anni almeno, in primis la televisione commerciale, hanno pure giocato un ruolo nell’appiattire il nostro spirito critico e in un certo senso ci hanno allenato ad assimilare indiscriminatamente informazione di qualsiasi tipo. Democrazia e informazione sono elementi che devono andare avanti mano nella mano. Una democrazia non informata è peggio di una tirannia, o forse è esattamente ciò che porta alla tirannia. L’ultimo libro dello storico Emilio Gentile, Il capo e la folla, edizione Laterza [13], analizza il rapporto tra massa e potere attraverso una rassegna di alcune tra le figure più importanti del Novecento e del passato, partendo da una riproposizione della tesi di Gustave Le Bon, antropologo, psicologo e sociologo francese, autore nel 1895 de la La psicologia delle folle, secondo cui le masse possono avere insite forze distruttive, possono essere permeate da sentimenti autoritari e di intolleranza e possono essere orientate da fattori esterni, in particolar modo dal prestigio di singoli individui che sanno intercettare queste fondamentali pulsioni collettive, imbrigliando la folla sottomessa al capo in una democrazia recitativa. Il Novecento è stato il secolo dei totalitarismi, in cui la propaganda e le prime sperimentazioni di mezzi di comunicazione di massa hanno giocato un ruolo fondamentale. Oggi Internet espone le masse a nuovi fenomeni definiti come agenda setting e inoculazione cognitiva (ovvero l’esposizione al rischio di diffusione di un certo tipo di disinformazione legata a specifiche agende politiche ed economiche), fenomeni menzionati nel libro di Quattrociocchi e Vicini e che il World Economic Forum riconosce come rischi di portata globale. Ma oggi Internet rappresenta prima di tutto un’opportunità rivoluzionaria, molto prima di risultare una minaccia. Il punto sta nell’imparare a usarlo, capirlo e riconoscerne i meccanismi di funzionamento. Anche per questo Walter Quattrociocchi ha recentemente promosso un’iniziativa che sta prendendo forma in questi giorni chiamata Pandoors (Permanent observatory on the spread of misinformation on social media [14]). Come si legge sul sito, il progetto mira a creare un osservatorio permanente per il monitoraggio e l’analisi in tempo reale dei flussi di notizie che scorrono sui social media e a sostenere la progettazione di sistemi di comunicazione basati sui dati, attraverso il monitoraggio del comportamento degli utenti relativamente ai pattern con cui si diffondono comunicazioni, informazioni, camere di risonanza e gli argomenti più polarizzanti. Il pregiudizio di conferma è sì insito in ognuno di noi, ma è anche rinforzato dagli stessi algoritmi su cui si basano news feed e suggerimenti di amicizie o di adesioni a gruppi o pagine di Facebook, che ci portano a vivere in un mondo virtuale tagliato su misura per ognuno di noi. Prima ancora di pensare che la soluzione alla diffusione della disinformazione risieda esclusivamente nella modifica degli algoritmi con cui si operano le ricerche in Google o con cui fruiamo dell’informazione su Facebook, occorre sviluppare una cultura dell’attenzione [15] per la veridicità delle notizie e una cultura della responsabilità per le conseguenze di azioni (la condivisione di informazioni false) che a livello individuale possono risolversi con qualche simpatico dileggio da parte degli amici, ma che su scala globale possono avere un effetto che risuona fino alla Casa Bianca. NOTE [1] http://www.politifact.com/punditfact/sta… [2] https://www.radioradicale.it/scheda/4934… [3] http://www.nature.com/articles/srep37825 [4] http://www.francoangeli.it/Ricerca/sched… [5] http://www.codiceedizioni.it/libri/nati-… [6] http://journals.plos.org/plosone/article… [7] https://twitter.com/realdonaldtrump/stat… [8] https://www.youtube.com/watch?v=FJqLAleE… [9] https://www.buzzfeed.com/craigsilverman/… [10] http://www.ilpost.it/2016/11/20/trump-st… [11] https://drive.google.com/file/d/0B0Zmxvn… [12] http://link.springer.com/article/10.1007… [13] http://www.laterza.it/index.php?option=c… [15] Per una discussione sullo sviluppo di un codice di comportamento necessario a fare dell’informazione uno strumento di cittadinanza si veda ad esempio la proposta dei “media civici” di cui parla Luca De Biase http://blog.debiase.com/2013/05/05/media… |