Ogni etichetta è una gabbia, più etichette sono più gabbie. Ma queste gabbie non solo imprigionano chi le riceve, ma anche chi le mette, in particolare se non sa esattamente distinguere tra l’etichetta e il contenuto. L’etichetta può descrivere il contenuto o ingannare il lettore.
La mente è illusoria, fluttuante, flessibile e allo stesso tempo costrittiva1. Può essere affilata come una katana e contemporaneamente frammentarsi in centinaia di micro pensieri, creando un vero enigma. Al contempo, però, può essere scolpita e modellata, nutrita e portata fino all’isteria. E poi può conoscere mille emozioni, senza che una sola presa di coscienza intervenga o emerga. Infine, può arrivare a uno stadio di pura beatitudine o di totale oscurità.
Quindi, viene da chiedersi, chi ha il controllo di questa caotica echo chamber?
Le persone spesso non sono in grado di controllare i loro pensieri e le informazioni che arrivano in massa, le filtrano attraverso un circuito che arriva a determinare il percorso successivo. Si tratta, né più né meno, di quanto viviamo in questo momento, circondati ‒come siamo ‒ da enormi flussi di informazioni e di bolle epistemiche2. Questa gargantuesca marea di informazioni logora il cervello esposto all’infodemia e ci impone di categorizzare, creare compartimenti e organizzare reazioni.
Spesso la mente non memorizza le informazioni in ordine cronologico, ma le riordina mettendo tutto il materiale raccolto in “scatole di immagazzinamento”: è qui che vengono stivate anche le notizie in una matrice per poi usare il vettore quando ci serve e rispolverarle, facendole riemergere.
In questo frangente arriva il controllo mentale sulla popolazione, attraverso gli algoritmi di Google e le piattaforme dei social media3: solo studiando la moderna manipolazione mediatica possiamo capire come esplodono le bolle epistemiche e uscire dalle echo chamber. E ovviamente, dal controllo politico delle nostre ricerche, dalle nostre idee in itinere e quant’altro di interesse per i governi, ad esempio, quello americano4.
Ma non si tratta solo di questo: è noto quanto siamo lontani rispetto all’antico aforismo greco “Conosci te stesso” e che, al contrario, altri ci conoscono sempre più bene. Basti pensare che la nostra intelligenza, il nostro orientamento politico, religioso e sessuale siano da tempo calcolati dai “Mi piace” lasciati su Facebook e sugli altri “social”.
Ne consegue che le macchine, utilizzando i dati dei nostri cookies digitali, siano ormai in grado di giudicare «la nostra personalità meglio dei nostri amici e della nostra famiglia. Presto l’intelligenza artificiale, utilizzando i dati dei social […], ne saprà ancora di più. La sfida del 21° secolo sarà come vivere quando gli altri ci conoscono meglio di quanto noi conosciamo noi stessi»5.
Ad esempio Generative Pre-trained Transformer 3 è un nuovo modello linguistico di intelligenza artificiale, ma questo linguaggio ha come fonte di apprendimento il world wide web: può ricevere un imprinting fallato dai più classici bias di questa epoca, che così agevolmente circolano online, facendo sì che pregiudizi di ogni sorta condizionino la costruzione di qualunque pensiero. Fenomeni che si consumano in rete come le echo chamber vanno ad impattare sull’intelligenza artificiale, che diventa lo specchio di uno spazio virtuale spesso malato, che non è immune a discriminazioni e conclusioni errate6.
Visto l’enorme aumento dell’uso delle IA all’interno dei social, ci dobbiamo maggiormente preoccupare del fatto che non siano algoritmi pubblici – infatti le aziende sono restìe a svelarli – questi algoritmi vedono e intercettano quando facciamo una ricerca su Google, quando apriamo un social o quando navighiamo dentro un sito. Rischiamo di ritrovarci in una echo chamber e potremmo decidere di non visualizzare contenuti che ci danno fastidio (e che in realtà potrebbero essere utili a capire come stanno le cose, in alcuni casi), arrivando così ad un network sociale ovattato e poco realistico7.
Il problema, però, è anche un altro: prendere coscienza del fatto che l’infodemia di notizie ci conduca ‒ senza rendercene conto ‒ a formare opinioni e avere reazioni istintuali che non provengono da noi ma risultino, de facto, provocate ad hoc dagli algoritmi: accettare acriticamente le vulgate o opporsi aprioristicamente ad esse, può far perdere il senso delle cose, quel “buon senso” che Cartesio affermava fosse la qualità meglio distribuita al mondo e che, invece, oggi viene ritirata dal mercato.
Quale mercato? Quello che domina ogni aspetto di una realtà nella quale ormai l’economia fattasi ideologia8 ha obliterato e obnubilato le menti facendo leva sul fatto che «non tutti possiedono la facoltà di discernimento e senso logico, fondamentali per destreggiarsi efficacemente in ogni situazione»9.
Quanto avviene nell’echo chamber è «un processo di accelerazione nella scelta di ciò che interessa all’utente»10. Chi cerca di opporsi a tutto questo, per farlo, usa solitamente la logica e il buon senso. Ma i rutilanti eventi odierni portano ad una sovra esposizione di informazioni. E ciò sfida la logica.
D’altra parte, la mente spesso ha bisogno di disimpegnarsi velocemente: ecco come la persona arriva alla echo chamber. In molti soffrono della mancanza di tempo per il discernimento, altri non ne hanno voglia, altri hanno paura e altri ancora sono sommersi da enormi flussi di informazione. Ed ecco che la mente umana usa i famosi filtri veloci.
Ma tutto ciò finisce per impadronirsi della nostra mente, spingendola a credere a false narrazioni: assorbiamo il modo di pensare, assimiliamo cosa pensare e cosa credere. Il risultato? Non siamo più i padroni della nostra mente. E muore l’originale interconnessione con noi stessi.
Alcuni studi sottolineano, in tal senso, «la credibilità maggiore assunta nel tempo da notizie condivise da amici e parenti sui social. Più in generale, il bias confermativo interviene a questo punto, nella predisposizione che ha l’individuo a interagire con link, notizie, fonti, ecc. che provengono dal suo stesso background o che appoggiano e confermano le sue credenze o, meglio, che trovano una certa approvazione all’interno di un gruppo ben definito di persone dai gusti e le opinioni simili. Se si immaginassero le camere dell’eco come degli spazi fisici, insomma, al loro interno si vedrebbe rimbalzare continuamente, da un punto a l’altro, lo stesso tipo di contenuto. È facile in un contesto simile convincersi, erroneamente, che le proprie opinioni e le proprie visioni del mondo siano le uniche che abbiano valore, se non addirittura le uniche esistenti. Una echo chamber, semplificando, non è altro che una sorta di bolla»11.
Walter Quattrociocchi, in un saggio ha descritto qualche anno fa12 le camere dell’eco come dei circuiti chiusi, dei mondi virtuali creati su misura da ogni singolo individuo.
D’altra parte, «non esistono persone che non facciano parte di una echo chamber.
Esistono differenti tipologie di echo chamber, ad esempio di natura scientifica, politica, culturale, oppure di matrice complottista ed estremista. Eppure il meccanismo che permette a queste stanze dell’eco di funzionare è sempre lo stesso, ed è basato su due elementi principali: il bias confermativo e il bisogno di appartenenza»13.
Sul tema, che l’autore ha ripreso l’anno scorso14 c’è su You Tube un’interessante intervista:
della quale riportiamo un piccolo brano:
«All’interno della comunità scientifica assistiamo a un accanito dibattito riguardo all’esistenza delle echo chambers e alla loro natura. Si tratta di un tema appartenente a un settore disciplinare non ben identificabile, a cavallo tra sociologia, economia comportamentale e fisica”, specifica Quattrociocchi. “In precedenza avevamo condotto degli studi che avevano permesso di rilevare un’evidente tendenza di massa, da parte degli utenti, a cercare i contenuti che aderivano a una determinata visione del mondo e a evitare quelli che, invece, la contrastavano. Ci siamo accorti, però, che mancava una definizione operativa di echo chamber. Abbiamo perciò stabilito una definizione operativa molto semplice: abbiamo deciso di indagare come l’attività di un utente si correla con quella dei suoi contatti. Abbiamo rilevato, ad esempio, che la cerchia sociale di un utente che interagisce molto con pagine di sinistra è composta da altre persone che a loro volta sono attive su queste pagine. Lo studio […] dimostra anche l’importanza di indagare il funzionamento delle echo chambers sui social per comprendere i meccanismi tramite i quali si forma l’opinione pubblica e il modo in cui circolano le credenze, le notizie e, purtroppo, anche la disinformazione»15.
Ne consegue, quindi, che «la diffusione dell’informazione sia molto articolata e complessa, ed è soggetta sia alle dinamiche di comportamento degli individui, sia ai meccanismi di funzionamento delle piattaforme. Abbiamo rilevato perciò la creazione di cluster sociali all’interno dei quali assistiamo a un esercizio collettivo per filtrare le informazioni che aderiscono al credo condiviso di quel cluster e per interpretare le informazioni esterne mantenendo la coerenza narrativa»16.
A ciò va aggiunto che «una successiva suddivisione dell’audience in segmenti dinamici, poi, permette di direzionare messaggi mirati ai cluster giusti e dunque di guidare i consumatori ad una scelta. Alla base di un’efficace segmentazione vi è un articolato sistema di filtri che consente di selezionare gli utenti in base alle informazioni di profilazione. I filtri possono, così, essere mixati per dare vita a segmenti complessi capaci di descrivere l’audience di riferimento in modo molto accurato. L’intelligenza artificiale esprime qui le sue massime potenzialità, permettendo di creare contenuti in linea con le aspettative ed esigenze dell’utente, prevedendo, in modo accurato, quali saranno i comportamenti o le sollecitazioni premianti»17.
Fermiamoci a riflettere. Siamo così preoccupati della guerra in Ucraina che nemmeno ci rendiamo conto che, presto, potrebbe accendersi un secondo conflitto su Taiwan18.
Ecco che solo con questo semplice esempio possiamo comprendere quanto sia facile perdere la proiezione ortogonale degli eventi. Un’attitudine che basterebbe riprendere considerando che, ad esempio, i media cinesi dall’inizio dell’invasione russa dell’Ucraina si siano orientati «a ripetere la propaganda di Mosca nel tentativo di evitare di incolpare la Russia e di giustificare le azioni del presidente Vladimir Putin. […] Questa visione si riverbera sui giornali e sulla televisione di Stato, così come sui social media, nell’ambiente di notizie strettamente controllato della Cina. Gli hashtag pro-Putin sono stati autorizzati a proliferare su Weibo, insieme a commenti ammirati su quanto sia audace e invita gli ucraini ad arrendersi»19. Una bella echo chamber per il comunismo della sorveglianza, insomma.
Questo ci mostra il vero pericolo delle camere dell’eco: rendono impossibile avere dibattiti razionali su questioni politiche, geopolitiche, culturali e religiose. Da lettori critici volti all’approfondimento ci si trasforma ‒ senza accorgercene ‒ in ultrà da stadio pronti a scannarsi l’un con l’altro perdendo di vista ciò che invece accade sotto gli spalti: la partita in atto per la quale avevamo pagato il biglietto e la reale posta in gioco.
Roberto Bonuglia & Alessia C. F. ALKA
- 1C. Lynn, Become The Master of Your Mind, in «Corey’s Digs», del 28 agosto 2019, ora in https://www.coreysdigs.com/consciousness/become-the-master-of-your-mind/.
- 2A.C.F. (Alka), La Bolla Epistemica e la Narrativa Imperante, in «Ora Zero», del 15 aprile 2022, ora in https://www.orazero.org/la-bolla-epistemica-e-la-narrativa-imperante/ e R. Bonuglia, Dall’infodemia alla guerrodemia, in «Corriere delle Regioni», del 2 maggio 2022, ora in https://www.corriereregioni.it/2022/05/02/dallinfodemia-alla-guerrodemia-di-roberto-bonuglia/.
- 3C. Lynn, Controlling Minds, Narratives & Elections: Google, YouTube, Facebook & Twitter, in «»Corey’s Dig», del 26 agosto 2019, ora in https://www.coreysdigs.com/big-tech/controlling-minds-narratives-elections-google-youtube-facebook-twitter/ e A.C.F. (Alka), Gli effetti a cascata della guerra informatica, in «Ora Zero», del 29 aprile 2022, ora in https://www.orazero.org/gli-effetti-a-cascata-della-guerra-informatica/.
- 4 E. Zuesse, Tutti i motori di ricerca sono effettivamente controllati dal Governo degli Stati Uniti, in «Geopolitica», del 29 aprile 2022, ora in https://www.geopolitika.ru/it/article/tutti-i-motori-di-ricerca-sono-effettivamente-controllati-dal-governo-degli-stati-uniti.
- 5 S. McCarthy-Jones, Are Social Networking Sites Controlling Your Mind?, in «Scientific American», dell’8 dicembre 2017, ora in https://www.scientificamerican.com/article/are-social-networking-sites-controlling-your-mind/.
- 6G.C. Italiano, L’intelligenza artificale e la trappola dei bias cognitivi, in «Mark Up», del 4 novembre 2021, ora in https://www.mark-up.it/lintelligenza-artificiale-e-la-trappola-dei-bias-cognitivi/
- 7AA.VV., Intelligenza Artificiale: che cos’è davvero, e a cosa serve, in «Trovalost», del 16 giugno 2021, ora in https://trovalost.it/artificial-intelligence/
- 8 R. Bonuglia, A Economia como Ideologia – Raiz de Todos os Males, in «Nova Resistencia», 11 maggio 2020, ora in https://novaresistencia.org/2020/05/11/a-economia-como-ideologia-raiz-de-todos-os-males/.
- 9 V. Sabater, Buon senso: è davvero così comune?, in «La mente è meravigliosa», del 15 novembre 2021, ora in https://lamenteemeravigliosa.it/buon-senso-e-davvero-cosi-comune/.
- 10 M. Fantozzi, Echo-chamber: sui social ognuno vive nella sua camera dell’eco, in «2duerighe», del 18 settembre 2019, ora in https://www.2duerighe.com/attualita/113001-echo-chamber.html.
- 11AA.VV., Definizione di Echo Chamber, in «Inside Marketing», ora in https://www.insidemarketing.it/glossario/definizione/echo-chamber/.
- 12 W. Quattrociocchi, A. Vicini, Misinformation. Guida alla società dell’informazione e della credulità, Milano, Franco Angeli, 2016.
- 13V. Vinzia, Echo chamber: cosa sono e quali effetti hanno, in «Accademia Civica Digitale», ora in https://www.accademiacivicadigitale.org/echo-chamber-cosa-sono-e-quali-effetti-hanno/.
- 14 W. Quattrociocchi, Gli algoritmi e la polarizzazione, in «Le Scienze», del 27 aprile 2021, ora in https://www.lescienze.it/archivio/articoli/2021/04/27/news/gli_algoritmi_e_la_polarizzazione-4923976/.
- 15F. D’Auria, Echo chambers. Gli algoritmi dei social influenzano la nostra esperienza online, in «Ilbolive», del 16 marzo 2021, ora in https://ilbolive.unipd.it/index.php/it/news/echo-chambers-algoritmi-social-influenzano-nostra?amp.
- 16 Ibidem.
- 17 AA.VV., Focus su Profilazione e Segmentazione Evoluta con Adabra, in https://blog.adabra.com/profilazione-e-segmentazione-evoluta-con-la-piattaforma-adabra/.
- 18A. Strabioli, La Cina si prepara ad invadere Taiwan? La riunione di emergenza anti-sanzioni allarma l’Occidente, in «Il Messaggero», del 2 maggio 2022, ora in https://www.ilmessaggero.it/mondo/cina_invade_taiwan_riunione_emergenza_sanzioni_ultime_notizie-6663088.html.
- 19 AA.VV., Kremlin propaganda finds echo chamber in Chinese media on Ukraine war, in «Central Asia News», del 14 marzo 2022, ora in https://central.asia-news.com/en_GB/articles/cnmi_ca/features/2022/03/14/feature-02.