È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.
Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.
Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.
---
[CLIP: Audio di uno degli attacchi di Hamas]
Il recente attacco di Hamas in Israele ha scatenato una nuova ondata di disinformazione sui social network, tanto che l’Unione Europea ha inviato una lettera di monito a X, il social nework un tempo noto come Twitter, avvisando che la sua mancata rimozione delle fake news su questo terribile tema rischia di essere in violazione delle leggi europee. Ma tutti i social network sono da sempre bacino fertile per le informazioni false e pubblicare le smentite sembra essere inutile.
Due università britanniche, però, propongono un’altra soluzione: la cosiddetta teoria dell’inoculazione. Una sorta di “vaccinazione” contro le fake news, un’azione preventiva che permetterebbe alle persone di diventare più resistenti alla disinformazione in generale e di respingerla, come avviene con le malattie. Il procedimento che descrivono è semplice e indolore, e si può eseguire in tanti modi, anche attraverso giochi online e persino tramite un podcast come questo.
Benvenuti alla puntata del 13 ottobre 2023 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.
[SIGLA di apertura]
X e i social non fanno abbastanza contro le fake news
Pochi giorni fa Thierry Breton, Commissario per il mercato interno dell’Unione Europea, ha inviato una lettera aperta a Elon Musk, avvisandolo che il suo social network, noto per anni come Twitter e ora chiamato X, viene usato per diffondere disinformazione e contenuti illegali, violenti e terroristici dopo l’attacco di Hamas a Israele e che nonostante le segnalazioni fatte anche dalle autorità X non ha rimosso prontamente questi contenuti, come è invece richiesto dalle leggi europee e in particolare dal Digital Services Act, entrato in vigore a novembre scorso. Una inadempienza continuata potrebbe portare a sanzioni economiche considerevoli contro X e anche alla sospensione del servizio in Europa (BBC).
[Bretton ha inviato analoga intimazione a Meta (RSI; Reuters); dopo la chiusura del podcast ha inviato a X anche richiesta formale in base al DSA]
Questo monito fa il paio con un recente rapporto dell’Unione Europea che indica che la disinformazione è più prevalente su X che sugli altri social network (Ars Technica).
Questa piaga, insomma, continua a diffondersi e le azioni prese fin qui non sembrano essere state efficaci nel contrastarla. Le notizie false viaggiano velocissime, ma le loro smentite non riescono a fare altrettanto: il cosiddetto debunking, ossia la spiegazione pubblica e documentata delle bugie diffuse dalle fake news, pare poco efficace.
Per citare Jonathan Swift, le falsità volano, mentre la verità le rincorre zoppicando (“Falsehood flies, and the Truth comes limping after it”, in The Examiner, 1710). Se vi ricordavate questa citazione in una forma differente, qualcosa del tipo “una bugia fa mezzo giro del mondo nel tempo che ci mette la verità a infilarsi le scarpe”, e ve la ricordate attribuita a Mark Twain, confermate involontariamente questo fenomeno, perché Twain non ha mai detto nulla del genere, come hanno scoperto gli esperti di Quote Investigator, ma la falsa attribuzione continua a girare nonostante la smentita sia pubblicamente disponibile da tempo.
Un recente lavoro delle università britanniche di Cambridge e Bristol propone invece un approccio preventivo, che consiste nel dare alle persone gli strumenti per riconoscere facilmente i sintomi tipici dei tentativi di disinformazione e quindi, in un certo senso, dare loro gli “anticorpi” digitali necessari per contrastare la malattia della disinformazione. I ricercatori etichettano questo approccio con un nome molto formale, ossia teoria dell’inoculazione, attingendo proprio al lessico medico delle vaccinazioni, ma a volte usano anche un termine più conciso, ossia prebunking: in pratica, un debunking preventivo.
Il lavoro di queste università è disponibile presso il sito Inoculation.science, e sulla rivista Science Advances è stato pubblicato nel 2022 un articolo scientifico (Psychological inoculation improves resilience against misinformation on social media) che spiega come funziona il prebunking e dimostra che è efficace. Vediamo insieme quali sono i suoi ingredienti e come metterli in pratica.
Il vaccino anti-fake news
La teoria dell’inoculazione psicologica, per citarla con il suo nome completo, non è una novità: viene già studiata da una sessantina d’anni e si basa su due componenti fondamentali. Il primo è un preavviso emotivo, che dice che sta per arrivare un attacco a un’idea alla quale crediamo e ci mette in guardia; il secondo è una microdose indebolita di disinformazione, che contiene già una smentita preventiva.
Per esempio, si può diffondere un preavviso emotivo che segnali che ci sono persone che cercheranno di convincerci che la Terra è piatta e poi si possono spiegare le prove della rotondità della Terra e indicare quali sono gli errori di ragionamento dei terrapiattisti.
Il limite di questo approccio è che la smentita è specifica, un po’ come i vaccini biologici. Questo tipo di inoculazione rende quindi più resistenti a una singola tesi alternativa. Ma ogni giorno nascono e si diffondono nuove tesi di complotto, e servirebbe un numero infinito di inoculazioni psicologiche mirate.
Così, i ricercatori propongono oggi una nuova versione di questo metodo: invece di tentare di smontare preventivamente ogni singola teoria di complotto o diceria falsa, suggeriscono di concentrarsi sul riconoscimento delle tecniche di manipolazione e sulle strategie retoriche usate abitualmente dalla disinformazione di ogni genere. Questo permette di usare una singola “vaccinazione” generalista che vale per tutte le situazioni, offrendo una resistenza ad ampio spettro alle notizie false.
Per mettere alla prova questo approccio, i ricercatori hanno creato dei brevi video che presentano cinque tecniche di manipolazione che si incontrano spesso nella disinformazione.
-
La prima tecnica è il linguaggio emotivo. Le ricerche mostrano che l’uso di parole emotivamente cariche aumenta il potenziale di diffusione di un messaggio, specialmente se queste parole evocano sentimenti negativi come la paura, il disprezzo o l’indignazione. Per esempio, il titolo “Aumenta la disoccupazione giovanile” è una descrizione neutra di un fatto e lascia relativamente indifferenti. Ma “Giovani sempre più angosciati e senza lavoro” ha un impatto emotivo molto più forte.
-
La seconda tecnica è l’incoerenza, cioè l’uso di due o più argomentazioni che non possono essere tutte vere e si contraddicono. Per esempio, i terrapiattisti sostengono che gli scienziati nascondono la verità sulla forma della Terra, ma poi citano quegli stessi scienziati quando dicono qualcosa che sembra sostenere la teoria della Terra piatta. La maggior parte della gente non nota queste incoerenze se non viene abituata a cercarle.
-
La terza tecnica di manipolazione usata dalla disinformazione e descritta dai ricercatori è la falsa dicotomia o falso dilemma, che consiste nel presentare due alternative come se fossero le uniche possibili e nascondere il fatto che in realtà quelle alternative non si escludono a vicenda e che ci sono anche altre soluzioni. In uno dei loro video, i ricercatori citano come esempio Star Wars e in particolare Anakin Skywalker e il suo celebre “Se non sei con me, sei il mio nemico!”, rivolto al suo mentore e maestro Obi-Wan Kenobi [CLIP: Anakin vs Obi-Wan, da La vendetta dei Sith]. È una falsa dicotomia, perché non essere d’accordo non vuol dire per forza essere nemici; si può anche criticare una persona alla quale si vuole bene. E infatti Obi-Wan risponde perfettamente: “Soltanto un Sith vive di assoluti”.
-
Al quarto posto delle tecniche adoperate dai seminatori di fake news c’è l’indicazione del capro espiatorio: dare la colpa di un problema comune a qualcuno, o a un gruppo di persone, che non c’entra nulla. I ricercatori citano South Park - Il Film, in cui i genitori indignati decidono che i comportamenti antisociali dei loro figli sono colpa del Canada [CLIP: brano della canzone Blame Canada tratta dal film], ma la storia e la cronaca sono piene, purtroppo, di esempi tragici di questo genere.
-
Quinta, ma non ultima, è la tecnica dell’attacco ad hominem, ossia prendere di mira la persona che propone un’argomentazione invece di discutere la validità o meno di quello che dice. È un metodo classico, che serve per sviare l’attenzione dal vero tema e dirigerla contro un individuo. È vero che la credibilità di chi propone un messaggio a volte può essere pertinente, come nell’esempio, proposto dai ricercatori, di un fabbricante di sigarette che dovesse presentare uno studio che sostiene che il fumo non fa male, ma di solito gli attacchi ad hominem si concentrano su qualche caratteristica della persona che non c’entra nulla con l’argomento, magari un attributo fisico o la sua nazionalità.
Oltre ai video, i ricercatori hanno anche realizzato dei giochi online che simulano le attività sui social network e insegnano ai giocatori a riconoscere queste tecniche di manipolazione. L’obiettivo, insomma, è allenare le persone a notare i sintomi tipici dei tentativi di influenzarle. La speranza è che se questi sintomi vengono notati, verranno neutralizzati.
Sembra un’idea interessante, ma funziona davvero?
Risultati del prebunking
I ricercatori hanno messo alla prova la propria teoria in due modi: hanno presentato a gruppi di soggetti questi video di inoculazione, che mettevano in guardia contro queste tecniche di manipolazione, oppure dei video neutri, e poi hanno proposto a questi soggetti degli esempi di post nello stile di Twitter/X e Facebook. Alcuni di questi post usavano le tecniche segnalate; altri no. Un esperimento analogo è stato realizzato anche su YouTube, con una campagna pubblicitaria ad ampio raggio che ha raggiunto oltre cinque milioni di persone.
I dati di entrambi i test indicano che chi è stato inoculato contro le tecniche di disinformazione migliora la propria capacità di riconoscere le situazioni che usano queste tecniche, diventa più abile nel distinguere i contenuti affidabili da quelli inattendibili e tende a condividere meno contenuti ingannevoli rispetto a chi non ha ricevuto questa inoculazione.
Nell’esperimento fatto su YouTube, quindi in condizioni meno da laboratorio e più vicine alla realtà dei social network, il riconoscimento delle tecniche è aumentato in media del 5%; non è tantissimo, ma i ricercatori notano che il costo di una campagna di inoculazione contro le fake news fatta in questo modo è modestissimo (circa 5 centesimi per ogni visualizzazione del video), per cui sembra che valga la pena di fare l’investimento, soprattutto se si riesce a convincere i social network a sostenere almeno in parte i costi di una campagna socialmente utile.
Il prebunking fatto sui sintomi generici della disinformazione, invece di affrontare le singole teorie, ha anche un altro vantaggio importante oltre al suo ampio spettro di efficacia: evita di prendere di petto una visione del mondo emotivamente radicata e di creare una situazione di rifiuto e chiusura.
Soprattutto nelle tesi complottiste, infatti, la credenza non si basa solo sulle informazioni false, ma si fonda anche sulle emozioni legate a quelle informazioni e al senso di appartenenza a un gruppo che condivide quella credenza e quelle emozioni. Chiunque abbia un amico o un familiare rapito dalle tesi di cospirazione si riconosce esattamente in questa descrizione. Cercare di smontare una situazione del genere correggendo solo le informazioni sbagliate non funziona, perché la correzione diretta viene vista come un attacco frontale al proprio sistema di valori e quindi viene respinta in blocco. Un prebunking indiretto, nel quale ci si limita a far notare certe incongruenze di contorno, ha più possibilità di fare lentamente breccia.
Dato che è molto difficile sradicare credenze basate sulla disinformazione, la ricerca si sta insomma orientando verso metodi che aiutino le persone a resistere alla disinformazione in partenza, preventivamente, e questo approccio di inoculazione, ispirato dalla medicina e mirato a far crescere nelle persone gli “anticorpi mentali” generalisti che permettano di riconoscere e neutralizzare i tentativi di manipolazione emotiva più diffusi, sembra una strada promettente contro le teorie complottiste e le forme di disinformazione presenti e future.
Resta ancora da capire quali siano i canali e i messaggeri più efficaci per la comunicazione di questi anticorpi, quanto duri l’effetto dell’inoculazione e se ci sia un effetto anche su chi è già stato colpito dal virus della disinformazione. Ma questo approccio sicuramente costa poco, la prima dose l’avete già ricevuta tramite questo podcast, e l’unico effetto collaterale è un’opinione pubblica che si fa manipolare meno facilmente. Tutto sommato, sembra un rischio accettabile.