
di Cesare Buquicchio e Diana Romersi
La guerra alla disinformazione sposta il suo focus: dai singoli contenuti fuorvianti alle piattaforme che ne favoriscono la diffusione. Il nuovo atto di accusa ai social network arriva dall’Unione Europea con la pubblicazione del rapporto “Fractured Reality” a cura del Joint Research Center. Uno studio che ridefinisce contesto e obiettivi della lotta alle fake news.
Secondo l’ultimo Global Risk Report del World Economic Forum, il proliferare della disinformazione e della misinformazione è al secondo posto tra i rischi globali a breve termine, superato per pericolosità solo dalle ultime dispute geoeconomiche. Una preoccupazione condivisa dai ricercatori che hanno redatto lo studio europeo il cui nome, Fractured Reality, evoca le dimensioni del fenomeno: la realtà percepita si sta frammentando su posizioni estreme a causa di uno spazio informativo inquinato dalla disinformazione. A rischio ci sarebbero le democrazie dei Paesi membri.
Per non confondere i lettori è bene ricordare che si parla di disinformazione per quei contenuti falsi o fuorvianti diffusi con l’intento di inquinare lo spazio informativo e il dibattito pubblico, mentre per misinformazione si intende la condivisione involontaria di contenuti falsi o fuorvianti in quanto li si ritiene erroneamente veri. In linea con le evidenze degli ultimi studi sul tema, poiché è difficile risalire per ogni contenuto fake alle intenzionalità dell’utente che lo ha diffuso, da ora in avanti nell’articolo faremo riferimento alla più diffusa misinformazione.
L’economia dell’attenzione
Nel mirino degli scienziati europei c’è il modello di business delle piattaforme social. Si tratta della cosiddetta “economia dell’attenzione” la quale “si fonda sulla massimizzazione del coinvolgimento” – spiegano nel rapporto. “Le piattaforme presentano agli utenti contenuti che probabilmente prolungheranno il loro tempo di permanenza, senza curarsi della qualità delle informazioni, con lo scopo di vendere più pubblicità personalizzate”.
Più scrolliamo le bacheche dei nostri profili social più verremo in contatto, tra un post e un reel dalla dubbia qualità, con spazi pubblicitari il cui giro di affari, solo per Meta (proprietaria di Facebook, Instagram, Threads e WhatsApp), ha sfiorato i 200 miliardi di dollari nel 2025.
Un ecosistema che i ricercatori hanno chiamato “Fantasy-industrial-complex”, il quale può essere definito come “un mercato dell’attenzione emergente, guidato da incentivi, in cui imprenditori politici e creatori confezionano narrazioni che affermano l’identità, le piattaforme premiano l’impegno e il pubblico partecipa attraverso il remix e l’amplificazione. L’aspetto ‘industriale’ deriva dalla catena di approvvigionamento ripetibile e monetizzabile”.
Dalle echo chambers alle platform chambers
Del resto, a rafforzare la nostra permanenza sui social non ci sono solo i contenuti ma l’architettura stessa delle piattaforme. I social infatti sfruttano dinamiche umane come il bias di conferma, ovvero l’inconscia ricerca di conferma delle proprie convinzioni. Si fonda sui nostri difetti cognitivi la creazione di ambienti informativi omogenei, le cosiddette echo chambers, dove circolano poche idee che si rafforzano nella loro ripetuta circolazione (e qui entra in gioco anche il bias dell’illusione della verità).
L’algoritmo quindi favorisce la visibilità di pagine, profili, gruppi e contenuti affini agendo sulla struttura delle nostre connessioni. Tra gli studi citati nel rapporto c’è quello dell’Edelman Trust Barometer che ha rivelato come nel 2026 in diversi Stati membri dell’UE (Francia, Irlanda, Svezia, Paesi Bassi, Germania) solo tra il 25% e il 30% della popolazione è esposta a fonti con un orientamento politico diverso, con una diminuzione di quasi il 9% rispetto all’anno precedente.
Ma nel rapporto si fa un passo ulteriore:
“Nel tempo, l’interazione tra esposizione selettiva, amplificazione algoritmica e migrazione indotta dalla moderazione dei contenuti ha portato a una trasformazione più profonda, da comunità frammentate all’interno delle piattaforme all’emergere di piattaforme ideologicamente distinte”
Queste cosiddette “eco platforms” sono ambienti socio-politici in cui dati demografici, contenuti e narrazioni degli utenti sono allineati per progettazione e per autoselezione (ad esempio, X contro Bluesky). Il risultato è che, sebbene le informazioni siano sovrabbondanti, l’attenzione tende a concentrarsi su un insieme limitato di fonti, portando a una riduzione della diversità informativa.
Le conseguenze su partecipazione democratica, coesione sociale e salute
Non c’è solo il rafforzamento delle proprie convinzioni, arroccati in tribù online sempre più lontane tra loro, senza la possibilità di un dialogo costruttivo per creare “quadri di riferimento condivisi della realtà” senza i quali “il dibattito crolla nell’incomprensione reciproca”.
L’architettura algoritmica delle piattaforme indebolisce la capacità di attenzione (ad esempio, la durata degli argomenti più popolari su Twitter/X è diminuita del 32% tra il 2013 e il 2016) con conseguenze sulle capacità dell’opinione pubblica di impegnarsi su grandi problemi sociali, chiaramente più complessi e con soluzioni sul lungo periodo.
Inoltre, gli algoritmi possono essere manipolati da “disturbi del segnale” attraverso campagne organizzate con finti profili, strumento molto utilizzato da attori stranieri come Russia e Cina. Il fenomeno è stato racchiuso nell’acronimo FIMI, Foreign Information Manipulation and Interference (manipolazione delle informazioni e ingerenze da parte di attori stranieri).
Tra gli argomenti preferiti per le campagne di disinformazione portate avanti da attori stranieri c’è proprio la salute: dall’efficacia dei vaccini contro il Covid ai rischi sulla salute della tecnologia 5G.
Come possiamo difenderci
Il rapporto presentato dalla Commissione Europea ha il doppio merito di aggiornare il panorama delle conoscenze sul complesso fenomeno della misinformazione online e di farlo senza aspettare i tempi lunghi della scienza, ma affidandosi a “prove minime valide”. Non si tratta di rinunciare al rigore scientifico, ma di intervenire con tempestività in un contesto in continua evoluzione e soprattutto di influenzare il dibattito pubblico prima che la misinformazione consolidi idee antiscientifiche difficili da sradicare a posteriori.
In questo contesto i ricercatori hanno elencato alcune raccomandazioni:
- Creare spazi pubblici alternativi che non dipendano dall’economia dell’attenzione;
- Incoraggiare cambiamenti nei modelli di business delle piattaforme social;
- Garantire maggiore possibilità di scelta per gli utenti sugli algoritmi di raccomandazione.
Il limite evidente è che le aziende proprietarie delle piattaforme social, motori di ricerca e IA sono spesso fuori dalla giurisdizione europea, per questo tra i suggerimenti c’è una maggiore autonomia digitale dell’Unione Europea.
Infine, per gli addetti ai lavori, i ricercatori hanno individuato tre livelli di intervento per il contrasto alla misinformazione:
- Nudge o “spinta gentile”: modella il comportamento nel momento del coinvolgimento attraverso promemoria di accuratezza o forme di “attrito” che rallentano la condivisione impulsiva (es. le limitazioni degli inoltri su WhatsApp), o anche “etichette nutrizionali” che possono avvisare le persone di contenuti problematicici (vedi il modello NewsGuard).
- Incentivi e strategie educative: sviluppo di competenze come l’inoculazione contro le tattiche di manipolazione o la lettura laterale per verificare le fonti.
- Confutazione (Fact-checking): smentita correttiva e verifica dei fatti o utilizzo di indicatori di credibilità della fonte per correggere la misinformazione una volta incontrata.
Questi approcci sono complementari: il primo limita la diffusione impulsiva, il secondo sviluppa competenze durature e il terzo corregge le idee sbagliate esistenti.
Di questi argomenti abbiamo anche parlato nella puntata di VIRALE su Radio Città Futura, ospitata nello spazio salute condotto da Nicola Del Duce: ascolta
Foto di Marco Palumbo su Unsplash
