Tribalismo digitale: la diffusione della disinformazione

Pubblicato da Francesco il

Tribalismo digitale

La diffusione della disinformazione

L’avvento dei social networks ha reso più immediato e costante il soddisfacimento del bisogno umano di validazione sociale e di comunicazione continua. Il loro funzionamento auto-alimentante è analogo a quello dello zucchero, in cui la gratificazione immediata nasce dal bisogno evolutivo di energie immediate; allo stesso modo i socials si fondano sul continuo stimolo delle interazioni sociali che portino alla conferma dei propri valori generando uno stato di benessere di cui non si riesce a fare sempre di più a meno.

Tuttavia questo tipo di dinamica si basa anche su un senso intrinseco di tribalismo proprio della natura umana, per cui le interazioni si configurano come interne ed esterne al proprio gruppo: nel primo caso si autoalimentano dei processi di conferma del proprio sistema di credenze, consolidando la propria identità culturale e quella del proprio gruppo; nel secondo caso, invece, si instaurano dei processi interattivi volti all’opposizione verso un sistema di credenze contrastante, acuendo la polarizzazione dei gruppi interagenti.

Questo genere di tribalismo si fonda sulla facilità che la rete dà di entrare in contatto con coloro che nutrono la nostra stessa visione: “Nel mondo reale, sarebbe quasi impossibile incontrare chiunque altro che creda che la Terra sia piatta. Ma online posso connettermi con un restante .000001% di persone che ha la stessa credenza e ciò potrebbe farmi sembrare che tale impressione sia largamente diffusa” afferma Stephan Lewandowsky, psicologo dell’Università di Bristol (Science, Vol 375 Issue 6587).

Inoltre i socials hanno generato un ulteriore fenomeno, quello della disintermediazione, ovvero il consumo diretto delle informazioni senza che queste siano state prima rese direttamente comprensibili da qualcun altro. Normalmente il giornalismo o le agenzie di stampa di organizzazioni o enti di ricerca rivestono il ruolo di intermediari al fine di rendere fruibile la notizia anche a coloro che non sono esperti nella materia trattata, cercando di ridurre al minimo il rischio di incomprensioni o fraintendimenti. La disintermediazione può causare dunque confusione, incoraggiando speculazioni, dicerie e sfiducia.

È sempre più necessario comprendere le dinamiche che sottendono alla diffusione e alla proliferazione di false notizie e teorie del complotto, in quanto anche il World Economic Forum, nel report del 2013, ha definito la disinformazione come una delle principali minacce alla nostra società.

Per comprendere meglio il fenomeno concentriamo la nostra attenzione allo studio di due gruppi distinti classificati come segue: il primo è composto da persone che consumano principalmente teorie del complotto e sono prone ad interagire con contenuti di cui non è direttamente verificabile la veridicità; il secondo è composto da persone che consumano soprattutto contenuti scientifici o che siano direttamente verificabili. Sebbene tale costruzione possa sembrare artificiosa, in realtà nell’analisi delle piattaforme social si rivela che tali comunità esistono e sono ben distinte; questi gruppi si caratterizzano per un’elevata segregazione attorno ai loro argomenti di interesse che vengono però consumati in maniera similare. Queste comunità vengono definite “echo chambers”, ovvero camere di risonanza, in cui le credenze condivise su cui si basa il gruppo vengono confermate ed alimentate, tramite il processo basato sul “confirmation bias”, cioè pregiudizio della conferma, che spinge le persone ad ignorare ciò che è al di fuori dal loro schema di visioni e credenze e a cercare invece prove che vadano ad avvalorare le proprie convinzioni.

Quello che distingue i due gruppi, oltre agli argomenti, sono i metodi di interazione e i processi di propagazione delle notizie. L’effetto di diffusione a cascata, ovvero la propagazione di un post nel bacino di persone vicine al suo contenuto, raggiunge proporzioni molto più grandi nel caso delle teorie cospirazioniste ed è caratterizzato per quest’ultime anche da un tempo di vita medio che cresce all’aumentare della grandezza della cascata; al contrario le notizie scientifiche hanno vita lunga solo all’interno di gruppi ben ristretti, mentre per i post che riescono a raggiungere più persone la durata media non supera le 200 ore di norma.

Tempo di vita di un post in funzione della grandezza del bacino di utenti raggiunto. (The Spreading of misinformation online, Del Vicario et al. , PNAS Vol. 113, no. 3, pg. 555)
Ciò consente anche di distinguere le due tipologie di pubblico in base al loro schema di attività, in cui i cluster cospirazionisti si caratterizzano per una maggiore volontà di diffondere le notizie relative al proprio bacino di appartenenza, tendendo maggiormente a condividere contenuti a loro affini; dall’altro lato invece i cluster scientifici normalmente condividono di meno e si concentrano maggiormente sul mettere likes. Questo genere di comportamento è definito “cognitive closure”, ovvero chiusura cognitiva e va di pari passo al confirmation bias: la maggiore interazione con teorie cospirazioniste per confermare la propria visione o sistema di credenze conduce ad una diminuzione della fiducia rispetto a fonti alternative di informazioni rispetto a quelle che si è abituati a consumare.

Un discorso a parte va fatto riguardo, invece, all’attività dei commenti, in quanto sono il luogo digitale effettivo in cui si viene a creare una scena di confronto/scontro tra le due parti. In generale si nota che la quantità di commenti è tendenzialmente omogenea se si prendono in considerazione i gruppi nella loro interezza. Uno schema particolare invece risalta nel momento in cui si vanno a definire gli utenti polarizzati e se ne va a studiare le dinamiche di interazione. Un utente polarizzato è definito come colui/colei che nella sua totale attività sui social mette likes per più del 95% delle volte a post relativi alla sua ideologia dominante, che essa sia scientifica o cospirazionista. In uno studio condotto nel 2014 analizzando 1,2 milioni di utenti su Facebook, si sono rilevati i dati riportati nella tabella di seguito:

Attività di utenti polarizzati su un bacino totale di 1,2 milioni di utenti. (Science vs. Conspiracy: Collective. Narratives in the Age of Misinformation, Bessi et al. , PLOS ONE del 23 Febbraio 2015)
Come si può notare gli utenti che seguono principalmente notizie complottiste sono quasi totalmente polarizzati ed inglobati in una echo chamber da cui difficilmente escono ( 99,08% dei loro commenti è all’interno del cluster), mentre chi segue notizie scientifiche è meno polarizzato e ha una tendenza maggiore a commentare nei post dell’altra ideologia ( 9,71% della loro attività si svolge al di fuori del cluster di riferimento). Questo genere di comportamento è alla base dell’attività spontanea di debunking, ovvero di sfatamento delle teorie complottiste, che affronteremo in maniera dettagliata in un prossimo articolo.
Attività su 7,751 posts da parte di utenti polarizzati su un bacino totale di 1,2 milioni di utenti. (Science vs. Conspiracy: Collective. Narratives in the Age of Misinformation, Bessi et al. , PLOS ONE del 23 Febbraio 2015)
Una possibile spiegazione della differenza di approccio e attivazione tra i due gruppi è che coloro che condividono una narrativa complottista vogliano maggiormente diffondere una visione che è trascurata dal pensiero comune, cercando di affermare una propria identità in un mondo estremamente vasto e complesso, mentre gli altri puntino ad inibire la diffusione di teorie cospirazioniste e la proliferazione di narrative basate su posizioni infondate. Come vedremo meglio nel prossimo articolo sul tema, le teorie complottiste nascono proprio dal bisogno umano di semplificazione per riuscire a comprendere quello che ci circonda; pertanto le dinamiche emotive che sottendono a questo processo sono estremamente determinanti per riuscire a caratterizzare un metodo che ponga un argine alla diffusione della disinformazione.

Per ultimo è interessante notare la risposta degli utenti polarizzati dei due cluster a delle notizie false create appositamente per testarne la risposta, in modo da notare le capacità analitiche di riconoscimento di una parvenza di veridicità nelle informazioni. Ebbene, si è evidenziata la tendenza da parte degli utenti appartenenti ai gruppi complottisti di essere maggiormente proni ad interagire con contenuti falsi, soprattutto se essi si pongono come possibili conferme di visioni anti-sistema da loro condivise. Tali ricerche quindi confermano l’esistenza tra la fiducia in teorie complottiste e il bisogno di una chiusura cognitiva, a cui segue una minore capacità di porre le proprie posizioni in critica rispetto ad input esterni non appartenenti alla propria narrativa.
Attività da parte di utenti polarizzati sottoposti intenzionalmente a false informazioni. (Science vs. Conspiracy: Collective. Narratives in the Age of Misinformation, Bessi et al. , PLOS ONE del 23 Febbraio 2015)
Questo articolo è stato scritto attraverso le seguenti fonti:
  • The spread of misinformation online“, Del Vicario et al., PNAS del 19 Gennaio 2016, vol. 113, no. 3, pg. 554-559;
  • Science vs Conspiracy: Collective Narratives in the Age of Misinformation“, Bessi et al., PLOS One del 23 Febbraio 2015;
  •  “Emotional Dynamics in the Age of Misinformation“, Zollo et al., PLOS One del 30 Settembre 2015;
  • Modeling confirmation bias and polarization“, Del Vicario et al., Nature Scientific Reports del 11 Gennaio 2017;
  • On the trail of bullshit“, Kai Kupferschmidt, Science del 25 Marzo 2022, Vol. 375, Issue 6587;
  • In the line of fire“, Cathleen O’Grady, Science del 25 Marzo 2022, Vol. 375, Issue 6587.