Gli algoritmi scelgono quello che vediamo sul web e i social, proponendo contenuti sempre più vicini alle nostre convinzioni, abitudini, desideri e persino emozioni. Con il rischio di chiuderci in una filter bubble.
La promessa del World Wide Web – quella di diffondere informazione e conoscenza, rendere il sapere accessibile a tutti, favorire la comunicazione e il pluralismo – è stata in larga parte tradita. L’effetto combinato di diversi fenomeni, tra i quali il più rilevante è l’avvento dei social media, ha trasformato la Rete in una dimensione in cui le opinioni sono sempre più polarizzate e pericolosamente aderenti a quello con cui già siamo d’accordo.
La materia grezza sono le tracce che, più o meno consapevolmente, disseminiamo online ogni volta che cerchiamo qualcosa su Google, mettiamo un like su Facebook, compriamo su Amazon, scriviamo una recensione su Tripadvisor o usiamo qualsiasi altra piattaforma digitale. Questa enorme quantità di dati, macinata senza sosta da algoritmi ormai avanzatissimi, restituisce una fotografia precisa di chi siamo, dove e come viviamo, cosa ci serve e interessa, ma anche del nostro orientamento politico e religioso, dei nostri valori.
È il meccanismo che permette alle aziende di studiare campagne marketing sempre più personalizzate (ti propongo qualcosa che so che ti piace e probabilmente comprerai), tuttavia è lo stesso che finisce per alimentare una visione sempre più parziale e limitata della realtà, ingabbiandoci pian piano dentro vere e proprie filter bubble. Se sono gli algoritmi a scegliere ciò che dobbiamo vedere e leggere, finiamo infatti per essere esposti non solo a delle pubblicità mirate, ma anche a contenuti che confermano e rinforzano le nostre convinzioni, mentre non incontriamo quello che potrebbe metterle in discussione. Veniamo dunque chiusi in una bolla che rischia di produrre uno stato di isolamento cognitivo e intellettuale.
Sono – ahinoi – i nostri comportamenti digitali a far crescere e irrobustire la bolla. Nel paper “Recursive Patterns in online Echo Chambers”, un team di ricercatori del CNR coadiuvati dal prof. Walter Quattrociocchi dell’Università Ca’ Foscari di Venezia ha spiegato come le persone tendano a rimanere all’interno delle bolle in quanto comfort zone rassicuranti, condividendo con il proprio gruppo solo quello che aggrega intorno a sé un consenso sempre più granitico.
Queste echo chamber scatenano un processo di segregazione in tribù, che si riconoscono in una certa posizione e rifiutano qualsiasi narrazione divergente. Se la polarizzazione è già di per sé preoccupante, ancora di più lo diventa quando finisce per accreditare le fake news e la disinformazione, azzerando ogni possibilità di dibattito e confronto.
Non è ancora del tutto chiaro come arginare questa deriva e l’utilizzo degli algoritmi a fini manipolatori. Un recente intervento di Paolo Boccardelli della Luiss Business School ha sottolineato la necessità di prevedere in capo alle Authorithy meccanismi di controllo e regolamentazione più efficaci, forzando le piattaforme a rendere trasparenti i meccanismi di profilazione e contrastare la diffusione delle fake news. Ci sono indubbie responsabilità anche da parte dei media, ma forse gli anticorpi più potenti risiedono proprio negli utenti, che dovrebbero tornare a esercitare il loro senso critico, distinguere il vero dal falso, e rompere il circolo vizioso delle filter bubble.