Disinformazione, l’UE accusa le piattaforme social: fanno soldi diffondendo fake news

di Cesare Buquicchio e Diana Romersi

La guerra alla disinformazione sposta il suo focus: dai singoli contenuti fuorvianti alle piattaforme che ne favoriscono la diffusione. Il nuovo atto di accusa ai social network arriva dall’Unione Europea con la pubblicazione del rapporto “Fractured Reality” a cura del Joint Research Center. Uno studio che ridefinisce contesto e obiettivi della lotta alle fake news.

Secondo l’ultimo Global Risk Report del World Economic Forum, il proliferare della disinformazione e della misinformazione è al secondo posto tra i rischi globali a breve termine, superato per pericolosità solo dalle ultime dispute geoeconomiche. Una preoccupazione condivisa dai ricercatori che hanno redatto lo studio europeo il cui nome, Fractured Reality, evoca le dimensioni del fenomeno: la realtà percepita si sta frammentando su posizioni estreme a causa di uno spazio informativo inquinato dalla disinformazione. A rischio ci sarebbero le democrazie dei Paesi membri.

Per non confondere i lettori è bene ricordare che si parla di disinformazione per quei contenuti falsi o fuorvianti diffusi con l’intento di inquinare lo spazio informativo e il dibattito pubblico, mentre per misinformazione si intende la condivisione involontaria di contenuti falsi o fuorvianti in quanto li si ritiene erroneamente veri. In linea con le evidenze degli ultimi studi sul tema, poiché è difficile risalire per ogni contenuto fake alle intenzionalità dell’utente che lo ha diffuso, da ora in avanti nell’articolo faremo riferimento alla più diffusa misinformazione.

L’economia dell’attenzione

Nel mirino degli scienziati europei c’è il modello di business delle piattaforme social. Si tratta della cosiddetta “economia dell’attenzione” la quale “si fonda sulla massimizzazione del coinvolgimento” – spiegano nel rapporto. “Le piattaforme presentano agli utenti contenuti che probabilmente prolungheranno il loro tempo di permanenza, senza curarsi della qualità delle informazioni, con lo scopo di vendere più pubblicità personalizzate”.

Più scrolliamo le bacheche dei nostri profili social più verremo in contatto, tra un post e un reel dalla dubbia qualità, con spazi pubblicitari il cui giro di affari, solo per Meta (proprietaria di Facebook, Instagram, Threads e WhatsApp), ha sfiorato i 200 miliardi di dollari nel 2025.

Un ecosistema che i ricercatori hanno chiamato “Fantasy-industrial-complex”, il quale può essere definito come “un mercato dell’attenzione emergente, guidato da incentivi, in cui imprenditori politici e creatori confezionano narrazioni che affermano l’identità, le piattaforme premiano l’impegno e il pubblico partecipa attraverso il remix e l’amplificazione. L’aspetto ‘industriale’ deriva dalla catena di approvvigionamento ripetibile e monetizzabile”.

Dalle echo chambers alle platform chambers

Del resto, a rafforzare la nostra permanenza sui social non ci sono solo i contenuti ma l’architettura stessa delle piattaforme. I social infatti sfruttano dinamiche umane come il bias di conferma, ovvero l’inconscia ricerca di conferma delle proprie convinzioni. Si fonda sui nostri difetti cognitivi la creazione di ambienti informativi omogenei, le cosiddette echo chambers, dove circolano poche idee che si rafforzano nella loro ripetuta circolazione (e qui entra in gioco anche il bias dell’illusione della verità).

L’algoritmo quindi favorisce la visibilità di pagine, profili, gruppi e contenuti affini agendo sulla struttura delle nostre connessioni. Tra gli studi citati nel rapporto c’è quello dell’Edelman Trust Barometer che ha rivelato come nel 2026 in diversi Stati membri dell’UE (Francia, Irlanda, Svezia, Paesi Bassi, Germania) solo tra il 25% e il 30% della popolazione è esposta a fonti con un orientamento politico diverso, con una diminuzione di quasi il 9% rispetto all’anno precedente.

Ma nel rapporto si fa un passo ulteriore:

“Nel tempo, l’interazione tra esposizione selettiva, amplificazione algoritmica e migrazione indotta dalla moderazione dei contenuti ha portato a una trasformazione più profonda, da comunità frammentate all’interno delle piattaforme all’emergere di piattaforme ideologicamente distinte”

Queste cosiddette “eco platforms” sono ambienti socio-politici in cui dati demografici, contenuti e narrazioni degli utenti sono allineati per progettazione e per autoselezione (ad esempio, X contro Bluesky). Il risultato è che, sebbene le informazioni siano sovrabbondanti, l’attenzione tende a concentrarsi su un insieme limitato di fonti, portando a una riduzione della diversità informativa.

Le conseguenze su partecipazione democratica, coesione sociale e salute

Non c’è solo il rafforzamento delle proprie convinzioni, arroccati in tribù online sempre più lontane tra loro, senza la possibilità di un dialogo costruttivo per creare “quadri di riferimento condivisi della realtà” senza i quali “il dibattito crolla nell’incomprensione reciproca”.

L’architettura algoritmica delle piattaforme indebolisce la capacità di attenzione (ad esempio, la durata degli argomenti più popolari su Twitter/X è diminuita del 32% tra il 2013 e il 2016) con conseguenze sulle capacità dell’opinione pubblica di impegnarsi su grandi problemi sociali, chiaramente più complessi e con soluzioni sul lungo periodo.

Inoltre, gli algoritmi possono essere manipolati da “disturbi del segnale” attraverso campagne organizzate con finti profili, strumento molto utilizzato da attori stranieri come Russia e Cina. Il fenomeno è stato racchiuso nell’acronimo FIMI, Foreign Information Manipulation and Interference (manipolazione delle informazioni e ingerenze da parte di attori stranieri).

Tra gli argomenti preferiti per le campagne di disinformazione portate avanti da attori stranieri c’è proprio la salute: dall’efficacia dei vaccini contro il Covid ai rischi sulla salute della tecnologia 5G.

Come possiamo difenderci

Il rapporto presentato dalla Commissione Europea ha il doppio merito di aggiornare il panorama delle conoscenze sul complesso fenomeno della misinformazione online e di farlo senza aspettare i tempi lunghi della scienza, ma affidandosi a “prove minime valide”. Non si tratta di rinunciare al rigore scientifico, ma di intervenire con tempestività in un contesto in continua evoluzione e soprattutto di influenzare il dibattito pubblico prima che la misinformazione consolidi idee antiscientifiche difficili da sradicare a posteriori.

In questo contesto i ricercatori hanno elencato alcune raccomandazioni:

  • Creare spazi pubblici alternativi che non dipendano dall’economia dell’attenzione;
  • Incoraggiare cambiamenti nei modelli di business delle piattaforme social;
  • Garantire maggiore possibilità di scelta per gli utenti sugli algoritmi di raccomandazione.

Il limite evidente è che le aziende proprietarie delle piattaforme social, motori di ricerca e IA sono spesso fuori dalla giurisdizione europea, per questo tra i suggerimenti c’è una maggiore autonomia digitale dell’Unione Europea.

Infine, per gli addetti ai lavori, i ricercatori hanno individuato tre livelli di intervento per il contrasto alla misinformazione:

  1. Nudge o “spinta gentile”: modella il comportamento nel momento del coinvolgimento attraverso promemoria di accuratezza o forme di “attrito” che rallentano la condivisione impulsiva (es. le limitazioni degli inoltri su WhatsApp), o anche “etichette nutrizionali” che possono avvisare le persone di contenuti problematicici (vedi il modello NewsGuard).
  2. Incentivi e strategie educative: sviluppo di competenze come l’inoculazione contro le tattiche di manipolazione o la lettura laterale per verificare le fonti.
  3. Confutazione (Fact-checking): smentita correttiva e verifica dei fatti o utilizzo di indicatori di credibilità della fonte per correggere la misinformazione una volta incontrata.

Questi approcci sono complementari: il primo limita la diffusione impulsiva, il secondo sviluppa competenze durature e il terzo corregge le idee sbagliate esistenti.

Di questi argomenti abbiamo anche parlato nella puntata di VIRALE su Radio Città Futura, ospitata nello spazio salute condotto da Nicola Del Duce: ascolta

Foto di Marco Palumbo su Unsplash

Altri di questo autore

Disinformazione? E se la cura fosse la partecipazione…

Coinvolgere la comunità per gestire l’infodemia e contrastare la disinformazione: facile a dirsi, difficile a farsi… di Cesare Buquicchio e...

Manipolazione psicologica e disinformazione di massa: il confronto degli esperti su trigger e soluzioni

Diane Benscoter e Alan Jagolinzer si confrontano in un webinar del Cambridge Disinformation Summit 2026. Ne emerge un quadro...

Guerra ibrida e salute: come disinformazione e FIMI manipolano le nostre paure

di Cesare Buquicchio e Diana Romersi Viviamo in un’epoca in cui i confini tra informazione medica, sicurezza nazionale e propaganda...

Disinformazione? E se la cura fosse la partecipazione…

Coinvolgere la comunità per gestire l’infodemia e contrastare la disinformazione: facile a dirsi, difficile a farsi… di Cesare Buquicchio e...

Manipolazione psicologica e disinformazione di massa: il confronto degli esperti su trigger e soluzioni

Diane Benscoter e Alan Jagolinzer si confrontano in un webinar del Cambridge Disinformation Summit 2026. Ne emerge un quadro...

Articoli correlati

Inserzione pubblicitaria

Gli ultimi articoli

L’appello di Siracusano (CSS): «Troppo silenzio sul Piano salute mentale. Va fatto partire per aiutare gli adolescenti che hanno l’AI come unico amico»

Nel coro costante dei fondi che non bastano mai in sanità, c’è un segnale in controtendenza che in pochi sembrano aver notato. Mentre il...

Rapporto Salute Mentale 2024: oltre 845mila persone assistite. Ecco i dati del Ministero

È appena stato pubblicato, sul sito del Ministero della Salute, il nuovo Rapporto sulla salute mentale con i dati riferiti all’anno 2024. Il documento...

Diagnosi di celiachia senza biopsia, cosa cambia con le linee guida 2025 e lo screening nazionale

La celiachia sta entrando in una nuova fase, sia sul piano diagnostico sia su quello organizzativo. Da un lato, le linee guida europee aggiornate...

Non ti vuoi perdere i prossimi articoli?

Iscriviti alla nostra newsletter per ricevere, una volta al mese, la nostra selezione dei contenuti più interessanti!

Inserendo la mail accetti la Privacy Policy: ti terremo informato sui nostri prossimi contenuti. NON cederemo mai il tuo indirizzo a terzi.