Disinformazione: di bolle, algoritmi ed echi [parte 1]

In un articolo in due parti analizziamo perché la disinformazione online è tanto pervasiva e come si possa fronteggiare 

La maggioranza delle cose che sappiamo, l’abbiamo appresa in modo indiretto. È grazie alla testimonianza dei miei genitori che so di essere nata a metà giugno, grazie ad un manuale di storia che so che Carlo Magno è stato incoronato nel 800 d.C., ed è grazie a ciò che leggo – principalmente online, e non per visione diretta o ragionamento – che so cosa sta accadendo in Bosnia.

Spesso per informarci, ci affidiamo a ciò che internet ci offre. È difficile, ad oggi, pensarcisi indipendenti. Allo stesso tempo, siamo consapevoli del fatto che ciò che leggiamo è spesso poco affidabile. Quando siamo in cerca di informazioni accurate, procediamo con diffidenza.

Col tempo abbiamo sviluppato degli strumenti di difesa che ci permettono di valutare l’accuratezza di ciò che leggiamo. Basti pensare allo scarto in competenze che percepiamo rispetto alla generazione che ci precede. Ci sembra infatti di aver sviluppato delle euristiche che ci permettono di distinguere ciò che è affidabile da ciò che non lo è. Ad esempio, tutti abbiamo il sospetto che i titoli in maiuscolo, con punteggiatura esuberante e ad alto contenuto emotivo non conducano a informazioni qualitativamente rilevanti. È significativo che i sistemi automatici di identificazione delle notizie false operino attraverso algoritmi allenati a riconoscere caratteristiche come queste per tentare di emulare il nostro senso critico. È lecito comunque un discorso a parte su etica e efficacia di tali sistemi (che troverete nella seconda parte dell’articolo).

Bolle epistemiche, rappresentazione di Greta Gandolfi basata su fotografia di R. Kalvar per Magnum Photos scattata durante il funerale di E. Berlinguer, 1984, Roma.

Allo stesso tempo, le dinamiche che sottendono la nostra attività online, non ci sono totalmente trasparenti. Ciò che compare sui feed dei nostri social network è filtrato rispetto alle informazioni che, mediante il nostro comportamento online, forniamo al social stesso. Dunque, ciò che non comprendiamo non dipende da nostre mancanze in nozioni o competenze, ma dalla complice opacità dei filtri. Non fornendo i codici alla base degli algoritmi di filtraggio (pratica richiesta dall’OSS, Open Source Software), molte piattaforme non permettono, nemmeno a chi ne ha i mezzi, di comprendere in che modo il filtraggio avviene e di quali informazioni l’algoritmo si nutre (il nostro genere? La nostra occupazione? Le nostre preferenze politiche o sessuali?). 

Di fatto, quando ci informiamo online, crediamo di fare uso di un servizio gratuito, che, in verità, paghiamo a caro prezzo fornendo le nostre informazioni personali. Con le parole di Mckenzie Wark:

«If you get something for free, basically it means that you are the product». 

Bisogna prendere atto inoltre che la varietà di informazioni a cui siamo esposti, all’apparenza infinita, è tutt’altro che eterogenea. A questo punto ha senso chiedersi cosa ci sia di diverso da un ipotetico nonno che non leggeva altro che L’Unità e noi, che non vediamo altro che i contenuti che già sappiamo di preferire. La risposta sta nella solidità del nostro sistema di credenze – chiaramente influenzato da informazione e cultura. Mentre l’avo ipotetico faceva parte di una bolla epistemica – nella quale scambiava informazioni con persone diverse che la pensavano come lui, probabilmente non sentendo le voci di chi faceva parte di altri gruppi (politici e sociali) – noi, e chi come noi si informa principalmente su internet, facciamo parte di quella che gli epistemologi definiscono camera dell’eco.

Camere d’eco, rappresentazione di Greta Gandolfi basata su fotografia di Henri Cartier-Bresson per Magnum Photos, 1974, Roma.

In letteratura spesso i due termini sono usati in modo intercambiabile, ma C. Thi Nguyen ci fa notare una differenza rilevante per il discorso. Laddove le bolle epistemiche tendono a ignorare le voci contrastanti o le evidenze contraddittorie, le camere d’eco, conscie dell’opposizione, la silenziano attivamente, discreditandola. Di conseguenza, nel momento in cui una bolla epistemica viene direttamente esposta all’opposizione, essa scoppia e si riadatta alle nuove evidenze, mentre le camere d’eco sono molto più robuste. Anzi, l’opposizione, paradossalmente, ne aumenta la stabilità. 

Più concretamente, possiamo pensare ai contestatori del movimento me too. Immaginiamo di ridurre la loro posizione a qualcosa di simile a ciò che segue: «gli abusi a oggi riportati sono solo casi sconnessi, coincidenze. Chi parla di un fenomeno sistematico, riportando la sua esperienza, lo fa per ottenere un momento di gloria». Se si prendesse per vera questa asserzione, allora tutte le nuove evidenze – che per altre comunità supporterebbero la tesi di sistematicità – verrebbero inglobate dalla teoria, e, in quanto previste da essa, non farebbero altro che confermarla.

Le intenzioni con le quali i sistemi di filtraggio e raccomandazione di notizie hanno preso piede sono pressoché trasparenti. A oggi, siamo tanto consumatori quanto lettori. Ciò che è più interessante è capire perché essi siano tanto efficaci

Essi si ispirano e sfruttano qualcosa di puramente naturale, una fallacia del nostro pensiero basata su delle fragilità del nostro sistema cognitivo. In particolare, questi algoritmi sfruttano il bias della conferma. Siamo infatti spinti ad accettare come vero ciò che già si accorda alle nostre credenze. Il bias della conferma influenza non solo i nostri giudizi sul mondo per come esso è in questo momento, ma anche su come è stato (falsando la nostra memoria) e su come sarà (intaccando la nostra capacità di fare ipotesi sul futuro). Ciò si può spiegare, a livello cerebrale, con la solida connessione tra networks funzionali che si occupano dell’accumulazione di informazioni e di distribuzione dell’attenzione con aree che si occupano di decodificarne di nuove. Questo tipo di connessione spiega come la nostra attenzione sia selettiva e automaticamente volta a evidenziare ciò che, di fatto, già crediamo vero. Per simili meccanismi, più volte siamo esposti a una stessa notizia (magari attraverso diversi canali), più la riteniamo accurata. Ciò è chiaramente fuorviante. Si pensi, come ultimo sforzo di astrazione, a una setta, nella quale i seguaci ripetono a pappagallo la teoria del guru e si capisce come, per nessun motivo, il ripetersi la renda più vera.

Come limitare queste tendenze? Quanto sarebbe utile o, da un’altra prospettiva, pericoloso sviluppare sistemi automatici che le invertano? A che punto sono questi sistemi oggi e a che punto saranno nel prossimo futuro?

Immagine di copertina: Depth (and height) of unconscious semantic processing. Una tesi di master in Scienze Cognitive. Credits: Ekaterina Torubarova @veryprettysnake su Instagram.

condividi: