Qualsiasi mezzo che permette un collegamento a internet pone nelle nostre mani la possibilità dell’onniscienza, ma il nostro sguardo è intrappolato in stanze chiuse che limitano la nostra visione del mondo a ciò che vogliamo vedere.
Nella realtà di oggi, la più interconnessa che sia mai esistita, viviamo rinchiusi in scatole di ferro dalle quali sembra impossibile uscire. Siamo peggio di un pesciolino in una boccia e – con ancor più fatica del nostro rosso Palin – non riusciamo a uscirne.
Il mondo con il quale entriamo in contatto è una piccolissima fetta della complessità della realtà: solo ciò che è simile a noi entra nella nostra boccia, nella nostra scatola, il resto rimane fuori, al massimo lo si critica perché «come si fa a credere che la Terra sia piatta?!». Eppure succede, le persone che credono a queste finte verità ci sono e allo stesso modo si interrogano su chi la pensa diversamente. Entrambe le fazioni hanno in comune il desiderio di convincere quella opposta. Purtroppo per una e per fortuna per l’altra, però, senza risultati. Ma la domanda vera è: perché è tanto difficile? La risposta è estremamente semplice: l’individuo convinto della rotondità della Terra tenderà ad allontanarsi da colui che sostiene che essa sia piatta e viceversa, così da impedire il confronto tra le due diverse teorie.

Quindi, i momenti di confronto tra persone diverse si riducono drammaticamente fino quasi ad annullarsi. La divisione e l’allontanamento tra individui con pensieri diversi sono sostenuti dalla necessità umana di trovare conferma al proprio pensiero; per validare una tesi si cercano fonti che la sostengano, eludendo ogni antitesi. Il web in questo si offre come mezzo formidabile perché in grado di fornire la risposta desiderata a qualunque domanda. È facile accorgersi di questo meccanismo, a pensarci: basta andare su Google e digitare «danni dei vaccini» per trovare nella prima schermata, tra i primi dieci risultati, ben quattro che sostengono la pericolosità di questi e cinque che la negano. Chi ha ragione quindi?
Si può discutere sull’affidabilità delle fonti, ma siamo in un’era in cui ciò pare passare in secondo piano. Questo meccanismo di ricerca, caratterizzato dalla tendenza ad accettare solo quelle informazioni che sono in accordo col proprio sistema di credenze, si definisce pregiudizio di conferma, o confirmation bias.
Il confirmation bias assume la forma di paraocchi capaci di indirizzare il nostro sguardo verso quelle fonti che sostengono le nostre tesi, impedendogli di osservare il contorno e ciò che si differenzia.
Le piattaforme social potrebbero essere potenzialmente il più ampio luogo di scambio e dibattito, ma la realtà è completamente diversa. Qui, ancor più che nella vita offline, il confirmation bias spinge a una polarizzazione sempre maggiore. Ogni utente si trova circondato solo da altri utenti che hanno il suo stesso tipo di pensiero, e questo avviene perché è l’utente stesso a operare ogni giorno delle scelte, togliendo dagli amici quello che la pensa diversamente e iniziando a seguire chi sostiene il suo stesso pensiero.
È un po’ come se, da adesso in avanti, un individuo iniziasse a frequentare sempre e solo una stanza chiusa, senza avere mai contatti con chi è al di fuori di quella stanza, avendo il potere di cacciare chi non vuole e chiamare dentro chi gli è affine. Ecco che nascono così le echo chambers, le casse di risonanza che abitiamo senza rendercene conto, dove ogni pensiero si amplifica e ogni contatto esterno si riduce.
Un chiaro esempio di come ‘abitare’ una echo chamber possa polarizzare e fomentare un pensiero è stata la vicenda di Tay, un chatbot creato da Microsoft nel 2016. Tay, questo il suo nome, era fornito di un’intelligenza artificiale che sviluppava, dopo una serie di scambi con gli utenti, una narrativa capace di replicare le loro espressioni e pensieri. Tay ha avuto vita breve.
Dopo esser stato inserito per qualche tempo in una echo chamber, ha velocemente imparato dagli utenti con cui era in contatto a diventare uno dei profili peggiori della rete con le sue affermazioni razziste e negazioniste. Dal canto suo, però, Tay si era solo conformato al luogo in cui si trovava.

È vero che l’essere umano non può essere paragonato a un bot, ma è anche vero che un meccanismo simile non è tanto lontano dalla realtà. Le persone si modulano anche in base all’ambiente che le circonda, il bambino cresce sulla base delle sue esperienze e la rete fa parte della nostra esperienza di tutti i giorni.
Tutte le tesi complottiste trovano terreni estremamente fertili nella giusta echo chamber e lì crescono, fino a diventare un vero e concreto problema per la società e per il mondo. Per smontare queste tesi, nell’era dei nostri giorni, ormai chiamata della «(dis)informazione», esiste il lavoro attento e puntuale di chi si occupa di debunking, ovvero di smascheramento delle informazioni false ‘pezzo per pezzo’ argomentando ogni aspetto. Anche se questa operazione appare spesso vana: ancora una volta, la chiusura delle echo chambers impedisce al complottista di entrare in contatto con il lavoro di chi smentisce le sue stesse tesi.
In conclusione, il problema rimane uno: dov’è la porta per uscire da queste echo chambers? In realtà una soluzione non c’è, o per lo meno non è stata trovata nessuna formula magica e la colpa non può essere attribuita al web; esso è un mero strumento, il suo utilizzo dipende da noi. Le informazioni corrette e affidabili sono lì e tutto dipende dall’uso che ne fa l’utente. Insomma, tutto è nelle nostre mani.
Allora il meccanismo migliore sarebbe ritornare ad ascoltare, sia le tesi di chi ci è affine sia di chi è a noi lontano. Forse il consiglio migliore, banale quanto ‘terapeutico’, è di non sbattere la porta in faccia al terrapiattista ma di accoglierlo, così da dargli la possibilità di guardare dentro casa nostra.
Fonti:
W. Quattrocchi e A. Vicini, Misinformation, Franco Angeli, 2016
W. Quattrocchi, L’era della (dis)informazione, in «Le Scienze», 02 febbraio 2016
Ricerca su Google in immagine effettuata il 28/01/2021
Profilo bloccato di Tay: https://twitter.com/TayandYou
Fonte immagine di Tay: https://www.cbsnews.com/news/microsoft-shuts-down-ai-chatbot-after-it-turned-into-racist-nazi/ Condividi l’articolo