News Intelligenza artificiale

Il dark side dei social: la polarizzazione del pensiero e l’incomunicabilità interpersonale

di  Maura Coniglione

Scarica l'articolo in PDF

Hai mai avvertito un senso di incomunicabilità o la sensazione di avere visioni diametralmente opposte rispetto ad altre persone, tanto da chiederti se venissero da un pianeta distante millemila km dal tuo?

Il fenomeno è abbastanza frequente e, fino ad un certo punto, non ha nulla di preoccupante: il fatto di catalogare concetti o ideali in macro categorie sommarie, creando una visione di “o dentro o fuori” è insita nella natura umana e ci permette di creare una rappresentazione del mondo circostante in modo semplice. Infatti, questo meccanismo dicotomico serve al cervello per processare le informazioni più velocemente, disegnando delle linee di demarcazione immaginarie.

In qualche modo, l’evoluzione ha portato ad un compromesso: perdere di vista le sfumature e la complessità dei problemi, in virtù di un vantaggio in termini di risparmio di risorse mentali. Tuttavia, secondo alcuni studi, negli ultimi anni questo fenomeno è stato acuito dall’uso dei social network. Quando reperiamo informazioni sui social, infatti, intervengono alcune distorsioni: uno di questi è il bias di conferma, ma anche fenomeni chiamati echo chambers e filter bubble. Vediamo in cosa consistono.

Cos’è il bias di conferma? Il bias di conferma è quella deformazione cognitiva che fa sì che il cervello dia maggior peso, e quindi rilevanza, alle informazioni che confermano le proprie credenze pregresse riguardo ad un certo argomento. Questo principio di funzionamento si basa su una sorta di “economia cognitiva”: la mente impiega meno energia nel confermare una credenza, piuttosto che sfatarla per costruire nuove visioni della realtà e produrre nuova conoscenza.

Il risultato è quel fenomeno per cui tendiamo a dare più rilevanza a fatti o persone che ci danno ragione, sottostimando o ignorando le informazioni che potrebbero mettere in discussione il nostro sistema di credenze. In sostanza, al cervello piace aver ragione, e noi non lo biasimiamo. Questo tipo di distorsione si potrebbe inquadrare all’interno di un errore sistematico che si insinua naturalmente nella mente di chiunque e, in una certa misura, è inevitabile! Un altro fattore rilevante, su cui potenzialmente abbiamo più controllo a condizione di averne consapevolezza, deriva dalla natura intrinseca degli algoritmi dei social network. Ma andiamo per gradi.

Come funzionano gli algoritmi dei social media? 

Il sistema di raccomandazione dei social network altro non fa che raccogliere dati sulle le nostre interazioni (i mi piace, le condivisioni dei post, i commenti, il tempo passato su ogni contenuto, i profili con cui interagiamo), immagazzinando tutte le informazioni per creare un profilo virtuale con le nostre preferenze. Grazie a tale profilazione, verranno suggeriti contenuti che hanno un alto grado di associazione con i nostri gusti (che è probabile che ci piacciano), sulla base di un principio di somiglianza con gli utenti che hanno preferenze simili alle nostre.

Se esiste un simpatico effetto collaterale di tutto ciò, è il seguente: ti piacciono i gattini? L’algoritmo ti proporrà gattini. Ti piace la pasta? Eccola servita, pasta a non finire. Tutto ciò appare innocuo finché si limita a fissazioni gastronomiche o passioni leggere, ma il problema si pone quando tocca temi più profondi come visioni politiche, traumi o questioni irrisolte. In questi casi, l’algoritmo diventa una potente cassa di risonanza (echo chamber, Walter Quattrociocchi e Antonella Vicini, 2016), amplificando la tua prospettiva e facendoti credere che tutti la pensino come te. Questo avviene perché l’algoritmo è progettato per mostrarti quella porzione di internet che rispecchia le tue idee, creando quella che Pariser (2011) definisce una filter bubble, una bolla.

Questo fenomeno si manifesta senz’altro nei dibattiti online, dove prevale il principio: “O la pensi come me, o sei contro di me, e con te non posso dialogare.” È il motivo per cui, sotto contenuti che trattano temi divisivi, i commenti mostrano opinioni così polarizzate e inconciliabili da impedire una immedesimazione con altri punti di vista, come se l’altro venisse disumanizzato. Non a caso, visioni complottiste come la teoria della Terra piatta o la negazione dello sbarco sulla Luna trovano terreno fertile: chi vi crede è stato esposto continuamente a tali informazioni. E come puoi cambiare idea, se il mondo che abiti ti dà ragione?

Se ciascuno di noi fa parte di una nicchia specifica, con ideali e visioni proprie, la ritrosia a cambiare idea potrebbe essere alimentata dalla paura dell’esclusione sociale dalla nostra comunità, reale o virtuale che sia. Ne parla la teoria Spiral of Silence di Elisabeth Noelle-Neumann (1974). Il che potrebbe creare, in caso di esposizione parziale ad un punto di vista diverso dal nostro, addirittura ad una radicalizzazione ulteriore, un meccanismo di difesa per proteggere il proprio sistema di credenze e non essere percepiti come “sbagliati”. 

Ma come fanno i social ad essere così impattanti nella nostra vita?

Il concetto di mente estesa, introdotto da Andy Clark e David Chalmers nel 1998, suggerisce che strumenti come i social network, gli smartphone e persino le calcolatrici possano rappresentare un’estensione del nostro cervello. Questi strumenti, che percepiamo come esterni a noi, potrebbero in realtà funzionare come una copia o un amplificatore di ciò che già abbiamo nella mente.

Questo fenomeno rappresenta una sorta di mente che guarda se stessa, con il rischio di intrappolarci in un loop autoreferenziale. In questo scenario, interrogando i social, otterremmo le stesse risposte che darebbe la nostra mente. Con il risultato che, non solo continueremmo a porci le stesse domande, ma finiremmo anche per ottenere le stesse risposte. Ci offre ciò che vogliamo, non necessariamente ciò di cui abbiamo bisogno.

Pertanto, non si tratta di inneggiare al complottismo o demonizzare i social network: l’amplificazione delle convinzioni è probabilmente un effetto collaterale indesiderato, non una strategia deliberata. L’algoritmo ha come obiettivo unicamente mantenerci sulle piattaforme: il tempo che spendiamo sui social rappresenta la vera moneta di scambio per il loro uso. 

D’altra parte, anche i mezzi di comunicazione tradizionali, come la televisione, la radio o i giornali, adattandosi alla visione dominante su determinati argomenti o alle sue opposizioni, partecipano anch’essi all’amplificazione e alla polarizzazione del pensiero. In tal senso, il web, con la sua varietà di fonti, potrebbe, almeno in principio, addirittura creare luoghi di dibattito democratici e favorire la diffusione di nuove prospettive, riducendo potenzialmente il rischio di polarizzazione.

In definitiva, come se ne esce? La consapevolezza senz’altro permette di sfruttare il lato buono dei social, senza farci dominare da quello negativo. Continuare a creare spazi di incontro reali, in cui dibattere e scambiare esperienze ed opinioni, rimane probabilmente il modo più sano per costruire una propria idea e, talvolta cambiarla: è più facile mettersi in ascolto con un essere umano in carne ed ossa, piuttosto che con una figurina su un social network, in modo da toccare con mano che la ragione non appartiene in assoluto ad una fazione o ad un’altra, ma ad un lento convergere verso un punto comune che, se non riesce a condividere la visione dell’altro, possa almeno comprenderla. Solo così possiamo aprirci alla possibilità di cambiare idea, e ancora, renderci conto della nostra limitatezza come persone, ma complementarietà come collettività. 

Se la ragione sta solo da una parte, allora ha torto (mia cit.)

Rubrica a cura di Generazione Stem

L’autrice

Maura Coniglione, statistica economica e dottoranda in Computational Mathematics, scrivo da sempre, appassionata di psicologia e di scienze sociali; collaboro con Generazione Stem, community che si occupa di divulgazione scientifica e di diffondere la cultura di genere.

Fonti