Facebook, ecco perché il News Feed la pensa come noi
tsevis @ Flickr
Social network

Facebook, ecco perché il News Feed la pensa come noi

Uno studio dimostra come il social network filtri i contenuti privilegiando quelli più vicini alle idee dell'utente. Ma è anche colpa nostra

Nel 2011 Eli Parisier pubblicava un libro intitolato The Filter Bubble, in cui coniava il termine “bolla di filtraggio” per descrivere la tendenza delle ricerche personalizzate a indirizzare l’utente verso contenuti già noti, o comunque in linea con le sue preferenze attitudinali e le sue idee politiche.

Oggi Facebook rende pubblico uno studio condotto internamente che, di fatto, conferma questa tendenza; ma dimostra come la colpa non sia tanto dei suoi algoritmi, quanto della chiusura mentale degli utenti stessi.

Poiché algoritmi come quelli di Google e Facebook si occupano di personalizzare i risultati di ricerca e i News Feed a seconda dell’attività online dell’utente, il rischio è che quell’utente finisca per trovare ben pochi contenuti che non siano in linea con i suoi gusti, e pertanto vive l’esperienza web come dall’interno di una bolla-filtro.

Facebook ha commissionato uno studio proprio per valutare se i propri algoritmi stiano creando bolle di filtraggio, in particolare riguardo ai contenuti che possano essere etichettati con una più o meno decisa inclinazione politica. Dal momento che l’algoritmo di Facebook decide cosa gli utenti debbano vedere sul proprio Feed basandosi su quanto un link sia stato cliccato dagli utenti e su quanto quel contenuto sia simile a quelli cliccati dall’utente in questione, lo studio si è concentrato su 10 milioni di utenti Facebook che esplicitano sul proprio profilo il proprio orientamento politico, per capire quanti di loro mostrassero interesse per contenuti lontani dalla propria sfera di interesse.

Dopo aver posizionato ogni utente su una scala a 5 stadi, dal conservatore spinto al progressista radicale, i ricercatori hanno analizzato i contenuti news condivisi da ogni utente nell’arco di 6 mesi. Il dato interessante è che il 24% dei link condivisi dagli utenti progressisti, e il 35% di quelli condivisi dagli utenti tendenzialmente conservatori, erano in realtà articoli trasversali e non inquadrabili politicamente. La quantità di articoli trasversali presentati sul feed di ogni utente era però leggermente inferiore (-5% per i conservatori, -8% per i progressisti), questo perché l’algoritmo in parte tende a nascondere contenuti che potrebbero non interessare l’utente bersaglio. Il dato interessante però è un altro: il filtro posto dagli stessi utenti su contenuti trasversali postati da utenti con opinioni politiche differenti era ancora più severo. In parole povere, gli utenti con un chiaro orientamento politico tendono a filtrare automaticamente contenuti pur neutrali provenienti da contatti di differente area ideologica.

Quello che Facebook vorrebbe provare con questo studio è dunque che il nostro paraocchi è più stretto di quello prodotto dai suoi algoritmi. Ma la realtà è che questo effetto bolla è un prodotto diretto dell’approccio utilizzato dagli algoritmi di personalizzazione. Nel momento stesso in cui un algoritmo viene creato per proporti in massima parte contenuti che ti possano piacere, il rischio più ovvio è che il tuo sguardo sul mondo online sia falsato da un filtro.

Finché l’obiettivo principale di Facebook sarà massimizzare il numero di click o il numero di condivisioni, difficilmente il suo News Feed potrà rispecchiare in modo lontanamente fedele e completo la complessa diversità dei contenuti digitali disponibili.

I più letti

avatar-icon

Fabio Deotto