algoritmi filter bubble paolo boccardelli luiss

 

Commento di Paolo Boccardelli, direttore Luiss Business School, pubblicato su Repubblica Affari & Finanza il 2 settembre 2019

Viviamo nell’era dei big data e dei social network: ogni minuto vengono effettuate 4,5 milioni di ricerche su Google, visti altrettanti video su Youtube, postate 280mila storie su Instagram. Ma questa massa di dati, cui ciascuno di noi contribuisce più o meno volontariamente quando cerca un’informazione o pubblica una foto che viene elaborata da intelligenze artificiali sempre più potenti, costituisce progresso, inteso come crescita del capitale umano e della cultura digitale? Aumenta il pluralismo dell’informazione e, in definitiva, potenzia la nostra capacità di scegliere consapevolmente? Questa domanda costituisce un nodo cruciale per la società contemporanea.

Nel recente e approfondito saggio “Big Data”, gli autori Del Mastro e Nicita ricordano che già nel 2015 Hossein Derakhshan, ricercatore ad Harvard e al MIT, evidenziava come il web sia profondamente cambiato con l’avvento dei social. Prima di allora, il web era un grande strumento di accesso all’informazione e alla conoscenza, che favoriva diversità e pluralismo. Oggi a dominare sono le piattaforme: tuttavia, più le usiamo più “nutriamo” gli algoritmi di machine learning al loro interno con dati su nostre abitudini, desideri, emozioni e comportamenti. Conoscendoci sempre meglio, gli algoritmi selezionano per noi un ventaglio sempre più ristretto di informazioni, riducendo sì lo sforzo richiesto per soddisfare i nostri bisogni, ma anche la capacità di analisi.

Come dimostrato da un esperimento della World Wide Web Foundation, un solo like dato o non dato a un post fa divergere i feed di account sino a quel momento “gemelli”. Questo fenomeno, definito da Eli Pariser (e da allora noto come) filter bubble, è responsabile delle scelte che l’algoritmo effettua per noi ed è, purtroppo, alla base della dieta informativa forzata di una fetta crescente della società. Sono gli algoritmi a effettuare il prezioso lavoro “editoriale” di selezione delle informazioni per noi rilevanti.

A questo si aggiungano gli specialisti in grado di sfruttare gli algoritmi per diffondere presso specifiche comunità di utenti una visione parziale di un fenomeno e di una realtà, enfatizzandone alcuni aspetti a scapito di altri, o addirittura una realtà falsa. Professionisti che, in casi estremi e distorti, disseminando i social con troll e utenti falsi, riescono a influenzare il dibattito e l’agenda della discussione, se non addirittura il consenso rispetto a certe posizioni. Non mancano leader politici che con grande disinvoltura comunicano a colpi di tweet, post e storie, né esempi di consultazioni democratiche in cui gli strumenti digitali hanno contribuito a generare consenso attorno a tesi o a specifici candidati.

Il tema è rilevante anche oggi in Italia: la Democrazia Parlamentare sancita dalla Costituzione si confronta con quella diretta evocata da molte forze politiche per aumentare il consenso facendo leva proprio sulla disintermediazione resa possibile dalla comunicazione digitale. Non bisogna però dimenticare che le piattaforme digitali sfuggono alle normative sul pluralismo e sulla responsabilità editoriale, nonché ai controlli delle autorithy. Inoltre, la “selezione” operata dalla profilazione algoritmica diventa scarsamente percepibile dagli utenti, che ricevono le notizie selezionate sulla base del meccanismo del filter bubble e, pertanto, accedono solamente a una visione parziale della realtà senza rendersene conto. Questo fenomeno, infine, è particolarmente accentuato dall’utilizzo di tecniche di comunicazione che evocano e stimolano emozioni, creando news di facile e immediata condivisione e per loro natura virali, accentuando ulteriormente il fenomeno della profilazione.

Tutto ciò pone due importanti temi. Il primo è la necessità di prevedere in capo alle Authorithy meccanismi di controllo e regolamentazione maggiormente efficaci per, fra l’altro, rendere più espliciti e trasparenti i meccanismi di profilazione e contrastare la diffusione delle fake news.

Inoltre, poiché il fenomeno non è facilmente arginabile, è necessario imparare a conoscerlo, attrezzare la nostra società con gli strumenti adatti per vivere nella nuova era digitale in maniera consapevole. Occorre cioè imparare di nuovo a cercare le notizie e a discernere quelle vere da quelle false, quelle che mostrano una realtà parziale e non offrono una visione controfattuale da quelle che consentono di effettuare analisi obiettive. È necessario, in definitiva, nutrire la nostra società con l’abilità fondamentale per il nostro tempo: il pensiero critico.

Il pensiero critico si alimenta con l’apprendimento continuo, vive di domande e non di risposte preconfezionate; è alleato del dubbio e non delle certezze di pochi; si arricchisce grazie alle opinioni degli esperti veri e non presunti, si basa su dati e analisi rigorose, realizzate con metodi scientifici e presentate in modo appropriato nelle sedi corrette. In definitiva, il pensiero critico si nutre della conoscenza approfondita e non della superficialità.

02/09/2019