Marcello Foa (“Giornalista, docente universitario, ex presidente della RAI”) diffonde l’accusa (falsa) che un collega, David Puente, non sia
iscritto all’Ordine dei Giornalisti e quindi sia un vicedirettore abusivo. Un’accusa non da poco. Ma Foa tralascia di fare la cosa più
semplice: chiedere al collega in questione.
Se un giornalista non riesce
neppure a trovare l’iscrizione di un collega all’Ordine dei Giornalisti, forse il giornalista ha un problema di metodo.
Se un giornalista sceglie di rilanciare accuse prima di averle verificate, pur avendo un modo semplicissimo per farlo, forse non ha solo un problema di metodo: ha un problema di fondo. E questa è una lezione di giornalismo molto importante.
Foa ha citato e diffuso un articolo pubblicato su Affaritaliani.it a firma di Giuseppe Vatinno, che sembra essere lo stesso Vatinno, deputato della Repubblica Italiana, che scrisse queste memorabili pagine di insulto e delirio ufologico nel 2013. Anche la scelta delle fonti di Foa, insomma, suggerisce perlomeno un problema di metodo.
Sta circolando la diceria, riportata da moltissime testate giornalistiche, che Elon Musk avrebbe dichiarato che X (quello che
una volta si chiamava Twitter) diventerà a pagamento per tutti. Non è così.
Tutto nasce da una dichiarazione fatta da Musk durante un incontro pubblico
con Benjamin Netanyahu,
trasmesso in streaming su X, a 34 minuti e 45 secondi dall’inizio (ringrazio Andrea Bettini
per quest’indicazione). Netanyahu chiede a Musk se esiste un modo per frenare
gli“eserciti di bot” che diffondono e amplificano l’odio, in
modo che se c’è un hater perlomeno agisca solo con la propria voce
invece di trovarsela amplificata dai bot.
Musk risponde dicendo:
“This is actually a super tough problem. And really, I'd say the single
most important reason that
we're moving to having a small monthly payment for use of the X system
is, it's the only way I can think of to combat vast armies of bots. Because
a bot costs a fraction of a penny, call it a tenth of a penny. But if
somebody even has to pay a few dollars or something, some minor amount, the
effective cost of bots is very high. And then you also have to get a new
payment method every time you have a new bot. So that actually, the
constraint of how many different credit cards you can find, even on the dark
web or whatever. And then, so, prioritizing posts that are written by
basically X Premium subscribers. And
we're actually going to come out with a lower tier pricing. So we
want it to be just a small amount of money...”
In altre parole, non ha detto che tutti gli account diventeranno a
pagamento: ha detto solo che X si sta spostando verso l’adozione di un piccolo
pagamento mensile per l’uso del sistema X e che X intende presentare
un’opzione con un prezzo inferiore. “Spostarsi” non significa “obbligare”.
Sembra, insomma, che Musk stia soltanto proponendo di aggiungere un’iscrizione
più a buon mercato per incentivare l’uso di X a pagamento, che attualmente
langue intorno allo
0,3% di tutti gli
utenti. E da come ne parla, non sembra che questa proposta sia già stata
discussa o pianificata in dettaglio: sembra più un’idea partorita sul momento.
Musk ha dimostrato ampiamente in passato di ventilare scenari che poi non si
concretizzano.
Le Community notes, ossia il debunking interno di X coordinato
dagli utenti, definiscono “ingannevoli” i post che parlano di un
passaggio di X a un modello a pagamento per tutti, precisando che
“in una recente intervista con il primo ministro di Israele, Elon ha
dichiarato che [X] introdurrà "una fascia tariffaria ridotta" per i membri
premium. Non c’è stato alcun riferimento a far pagare tutti per usare X”
(“Misleading post. In a recent interview with the PM of Israel, Elon stated
they will introduce "lower tier pricing" for premium members. There was
absolutely no mention of charging everyone to use X.”).
Elon Musk is reportedly considering the idea of charging everyone to use
Twitter/X pic.twitter.com/LKGtGNiLVW
Va detto che quest’ipotetica strategia sarebbe efficace contro i bot solo se
fosse un
pay-to-post universale; per contro, un pay-to-read sarebbe un
suicidio. Per dirla in altre parole: “a pagamento per tutti” significherebbe che bisognerebbe pagare anche solo per leggere i post. Significherebbe pagare semplicemente per avere un account X che permetta di seguire specifici account. Questo sarebbe un colossale autogol commerciale, l'equivalente di un paywall intorno a X. Quindi, a meno che Elon Musk non abbia intenzioni autodistruttive per X, parlare di “a pagamento per tutti” non ha assolutamente senso.
La questione sarebbe differente se si trattasse di un ipotetico canone per poter postare (e/o mettere like, fare repost o commenti); ma a quel punto non sarebbe più un “per tutti”.
Il Corriere della Sera, in un articolo firmato da Maurizio Bertera, titola “Nave in fiamme con 3 mila auto a bordo: un morto. L’incendio forse è partito da un’elettrica”, con il sottotitolo “La Guardia Costiera olandese ritiene probabile che l’enorme rogo sia partito da una delle 25 vetture elettriche a bordo” (link intenzionalmente alterato; copia permanente). È falso.
Nel corpo dell’articolo, Bertera scrive che “Un portavoce della Guardia Costiera ha rivelato all’agenzia di stampa Reuters che l’origine del fuoco può essere ricondotta a un’auto elettrica a bordo della nave”. È falso anche questo.
Non c’è nessuna conferma che l’incendio sia partito da un’auto elettrica e la Guardia Costiera olandese non ha affatto rilasciato la dichiarazione riportata dal Corriere. Il liveblog della Guardia Costiera olandese dice esplicitamente che “la causa dell’incendio non è ancora nota” (“De oorzaak van de brand is nog onbekend”). Inoltre il sito Electrek ha chiamato la Guardia Costiera olandese, che ha dichiarato di non aver affatto attribuito l’incendio a un’auto elettrica.
Reuters, citata dal Corriere, conferma che la causa dell’incendio è ancora ignota e aggiunge che “un portavoce della Guardia Costiera aveva detto a Reuters che l’incendio era iniziato vicino a un’auto elettrica” (“The coastguard said on its website the cause of the fire was unknown, but a coastguard spokesperson had earlier told Reuters it began near an electric car”).
Da nessuna parte viene detto quello che scrive il Corriere, ossia che l’origine del fuoco possa essere ricondotta a un’auto elettrica.
La nave in questione, la Fremantle Highway, ha preso fuoco nel Mare del Nord. Trasporta 2832 auto a carburante e 25 auto elettriche dalla Germania all’Egitto. Una persona dell’equipaggio è morta.
---
2023/08/02 17:40. Un articolo di NOS news, segnalato nei commenti qui sotto da CheshireCat, precisa che le auto elettriche o ibride a bordo sono 498, non 25, su un totale di 3783 veicoli, non 2832 come annunciato inizialmente.
---
2023/08/18: 16:20.CleanTechnica segnala che le auto elettriche sono tutte intatte e l’incendio è partito da un altro punto della nave. Il direttore delle operazioni di recupero, Peter Berdowski, ha dichiarato alla stampa olandese che le 498 auto elettriche a bordo sono tutte intatte e che l’incendio è probabilmente iniziato sull’ottavo ponte dei dodici. Le auto elettriche erano situate molto più in basso.
Sono curioso di vedere quanti dei giornali, dei siti e degli hater che hanno diffuso con entusiasmo la notizia della presunta colpa delle auto elettriche pubblicheranno con altrettanta evidenza la smentita della balla che hanno disseminato.
Molti siti hanno pubblicato la notizia che esiste un modo astuto per chiedere a ChatGPT di generare le chiavi di attivazione di Microsoft Windows 10 e 11 (BoingBoing; DigitalTrends; @immasiddtweets). Non è vero: non sono chiavi generate, ma chiavi di installazione e attivazione temporanea, pubblicate da Microsoft e lette da ChatGPT durante il suo addestramento.
Come spiega bene Bufale.net, con queste chiavi “puoi installare sì Windows, ma non usarlo: Windows risulterà limitato nelle funzioni e con messaggi a ricordarti l’obbligo di comprare delle chiavi funzionanti.”
Repubblica titola oggi che "Gli umani hanno estratto talmente tanta acqua dal sottosuolo che l'asse della Terra si è spostato", secondo “una ricerca degli scienziati dell’università di Seul”. Peccato che il titolo non dica a quanto ammonta questo spostamento.
Ve lo dico subito, così vi risparmio la fatica e l’ansia: settantotto centimetri. Nel corso di 17 anni. Quando lo spostamento annuo dell’asse di rotazione terrestre è di diversi metri. Il testo dell’articolo, nel disperato tentativo di dare spessore alla notizia, parla di “quasi un metro”.
Insomma, la notizia, detta così, è quella che in gergo tecnico si chiama minchiata sesquipedale. O, se preferite, catastrofismo acchiappaclic. Dipende se pensate che titolare in questo modo sia semplicemente inettitudine redazionale o una scelta intenzionale.
Peccato, perché lo studio in sé sarebbe anche abbastanza interessante. Ma Repubblica non ne cita gli autori, non ne linka la fonte, non dà insomma al lettore nessuno strumento per approfondire la notizia. Perlomeno non lo fa nella parte pubblicamente consultabile dell’articolo a firma di Enrico Franceschini, perché questo pezzo è, si badi bene, “contenuto per gli abbonati premium”, per la gente che paga, non per i plebei straccioni che leggono aggratis e si sorbiscono pubblicità e tracciamento commerciale.
L’unica informazione fornita nella parte pubblica dell’articolo di Repubblica è che lo studio è “una ricerca di scienziati dell’università di Seul citata dal sito americano di informazione Axios.” Mettere un link proprio no, vero?
E va bene: andiamo in Google, scriviamo “axios seoul university earth axis”, e troviamo l’articolo:
Axios, a differenza di Repubblica, linka eccome. Cita il nome di un geofisico, Ki-Weon Seo, e linka il comunicato stampa. Visto? Non è mica così difficile. Axios dimostra che linkare le fonti non è peccato mortale e non fa crescere i peli sulle mani.
Il comunicato stampa a sua volta linka l’articolo scientifico, pubblicato su Geophysical Research Letters il 15 giugno 2023 e pubblicamente accessibile:
Il titolo è “Drift of Earth's Pole Confirms Groundwater Depletion as a Significant Contributor to Global Sea Level Rise 1993–2010” e gli autori sono Ki-Weon Seo, Dongryeol Ryu, Jooyoung Eom, Taewhan Jeon, Jae-Seung Kim, Kookhyoun Youm, Jianli Chen e Clark R. Wilson. Il link DOI è questo:
Leggendo la pubblicazione scientifica originale invece del riassuntino di Enrico Franceschini emerge che lo spostamento è appunto di settantotto centimetri e si riferisce all’effetto cumulativo avvenuto nel corso di quasi vent’anni, dal 1993 al 2010, e ascrivibile all’estrazione umana dell’acqua dal sottosuolo. Il comunicato stampa sottolinea che il polo di rotazione normalmente varia di diversi metri nel corso di un anno (“The rotational pole normally changes by several meters within about a year”). E quindi non c’è pericolo che l’estrazione dell’acqua possa far spostare le stagioni (“changes due to groundwater pumping don’t run the risk of shifting seasons”).
Il fatto che gli scienziati siano capaci di misurare variazioni così incredibilmente piccole (meno di un cinquantamilionesimo della circonferenza terrestre) dovrebbe essere già degno di notizia e ammirazione, e il fatto che noi umani estraiamo dal sottosuolo così tanta acqua da avere un effetto piccolissimo ma misurabile sulla rotazione dell’intero pianeta dovrebbe far riflettere. Ma se non si fanno titoli strillati e sensazionali, addio lettori.
È disponibile subito il podcast di oggi de Il Disinformatico della
Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate presso
www.rsi.ch/ildisinformatico
(link diretto) e qui sotto.
Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.
---
[CLIP: Gente che grida perché crede di aver visto fantasmi - da
YouTube]
Su
TikTok
e YouTube ci sono
molti
video
che mostrano persone che percorrono lentamente una strada interna di un
cimitero a bordo di una Tesla e si spaventano perché l’auto segnala sul
proprio schermo che vicino al veicolo c’è qualcuno che loro non vedono. Di
solito questi video sono accompagnati da musica inquietante e da reazioni
esagerate, che non si sa se siano sincere o recitate. Ma il tema è sempre lo
stesso: le Tesla vedono i fantasmi. Perlomeno secondo chi pubblica questi
video.
[CLIP: Persone che gridano perché credono di aver visto fantasmi]
Questa è la storia di come un TikTok Challenge in salsa paranormale ha creato
un mito, spaventa gli animi sensibili ed è un’occasione per capire meglio come
funziona realmente il riconoscimento delle immagini tramite intelligenza
artificiale, perché sbaglia e vede “fantasmi”, e soprattutto perché è
importante essere consapevoli che questi suoi sbagli possono diventare
realmente pericolosi.
Benvenuti alla puntata del 19 maggio 2023 del Disinformatico, il
podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie
strane dell’informatica. Io sono Paolo Attivissimo.
[SIGLA di apertura]
Prima di tutto, è importante chiarire che i video di “fantasmi” avvistati
dalle auto Tesla mostrano un fenomeno reale, nel senso che è davvero
possibile che sullo schermo principale di queste automobili, quello che mostra
l’ambiente intorno al veicolo, compaiano sagome di persone che non esistono.
Ma non c’è nulla di ultraterreno o paranormale: si tratta di un effetto
frequente delle tecnologie usate da questo tipo di auto.
Le auto di Tesla e di molte altre marche sono dotate di telecamere perimetrali
che guardano in tutte le direzioni. Le immagini di queste telecamere vengono
inviate al computer di bordo, che le analizza e, nel caso di Tesla, mostra
sullo schermo in cabina un’animazione tridimensionale schematica degli oggetti
che sono stati identificati da questa analisi: le strisce di delimitazione
della corsia, i cartelli stradali, i semafori, i veicoli e i pedoni.
Questa animazione è basata sul riconoscimento automatico delle immagini. Il
software di bordo è stato addestrato a riconoscere gli oggetti mostrandogli
moltissime fotografie di vari oggetti e indicandogli il tipo di oggetto
mostrato, esattamente come si fa con un bambino per insegnargli a riconoscere
le cose che gli stanno intorno. Ma le somiglianze finiscono qui, perché il
software usa un sistema molto differente da quello umano per identificare gli
oggetti.
La differenza fondamentale, semplificando molto, è che il software si basa
esclusivamente sulle immagini, cioè sulle forme e i colori, mentre una persona
usa anche il contesto, ossia informazioni come la distanza, il tipo di
ambiente in cui si trova, le regole fondamentali della realtà: per esempio un
camion non può fluttuare a mezz’aria, gli oggetti non appaiono e scompaiono di
colpo e una persona non può camminare a cento chilometri l’ora.
È questa mancanza di contesto a causare l’apparizione dei fantasmi sullo
schermo delle Tesla: il software sbaglia a interpretare l’immagine che gli è
stata inviata dalle telecamere, non ha modo di “rendersi conto” del proprio
errore valutando la plausibilità della sua interpretazione, e così mostra
sullo schermo il risultato del suo sbaglio. L’automobile non sta rivelando
cose che i nostri occhi umani non possono vedere; le sue telecamere non stanno
ricevendo emanazioni dall’aldilà. I presunti “fantasmi” sono semplicemente
errori momentanei di interpretazione automatica delle immagini.
[CLIP da Ghostbusters]
Anche le persone che credono alla natura ultraterrena di questi avvistamenti
commettono a loro volta un errore di interpretazione, a un livello molto
differente, perché non sanno come funzionano questi software. Ovviamente, se
il contesto è un cimitero, magari di notte, la fantasia galoppa e l’unica
giustificazione che viene in mente a chi non conosce queste tecnologie è la
presenza di un fantasma.
Però tutto questo non spiega come faccia un computer a sbagliare così
clamorosamente, per esempio riconoscendo una sagoma umana in un’immagine in
cui non c’è nessuno ma si vedono solo prati, fiori e qualche lapide. Scambiare
una statua per una persona avrebbe senso, per esempio, ma nei video dei
presunti fantasmi si vede chiaramente che intorno all’auto non ci sono oggetti
di forma umana. Come fa un computer a sbagliare così tanto?
Confondere sedie a dondolo e occhiali
Alexander Turner, assistente universitario presso la facoltà di scienze informatiche
all’Università di Nottingham, nel Regno Unito, spiega in un
video della serie
Computerphile su YouTube che il riconoscimento delle immagini fatto
oggi dai computer in sostanza assegna a ciascuna immagine un valore di
probabilità di identificazione.
[CLIP: dal video di Turner per Computerphile]
Per esempio, se si mostra a uno di questi software una foto di un paio di
occhiali, il software risponde che rientra nella categoria “occhiali” con una
probabilità del 93%, ma non esclude che si tratti di una sedia a dondolo o di
un corrimano di una scala, con probabilità però molto più basse.
Fotogramma tratto dal video di Computerphile.
Questo è il meglio che riesce a fare: bisogna ricordare che il software non
“sa” cosa siano gli occhiali o le sedie a dondolo, ma si sta basando
esclusivamente sulle forme e sui colori presenti nell’immagine e li sta
confrontando con i milioni di campioni di immagini di occhiali, sedie a
dondolo e corrimano sui quali è stato addestrato, misurando quanto l’immagine
proposta si avvicini a una delle categorie che conosce e poi scegliendo la
categoria che ha la maggiore probabilità di corrispondenza, cioè di
somiglianza. Tutto qui.
Questo approccio probabilistico, così lontano dalla certezza umana, porta a
una vulnerabilità inaspettata di questi sistemi di riconoscimento delle
immagini. Come spiega Alexander Turner, di solito il software assegna una
probabilità molto alta a una singola categoria e alcune probabilità molto
basse ad altre categorie, ma è possibile influenzare fortemente queste
assegnazioni con un trucco: basta cambiare qualche pixel a caso dell’immagine
e vedere se la probabilità di identificazione corretta aumenta o diminuisce di
qualche decimale. Se diminuisce, si mantiene quel pixel cambiato e si prova a
cambiarne anche un altro, e così via, ripetutamente, tenendo i pixel alterati
che fanno scendere la probabilità di identificazione esatta e fanno salire
quella di identificazione errata.
La cosa sorprendente di questa tecnica è che i pixel cambiati che alterano il
riconoscimento non hanno niente a che vedere con l’oggetto nell’immagine ma
sono una nuvola di punti colorati apparentemente casuali. Per esempio, si può
prendere una foto di una giraffa, che il software identifica correttamente
come giraffa al 61%, cambiare alcuni pixel qua e là, magari anche solo sullo
sfondo, e ottenere che il software identifichi l’immagine come cane al 63%. Ai
nostri occhi la foto mostra ancora molto chiaramente una giraffa, ma agli
occhi virtuali del software quella giraffa è ora altrettanto chiaramente un
cane.
Fotogramma tratto dal video di Computerphile.
Fotogramma tratto dal video di Computerphile.
Turner prosegue la sua dimostrazione con una foto di un telecomando per
televisori su uno sfondo bianco, che viene riconosciuta correttamente dal
software: ma spargendo opportunamente dei pixel colorati sull’immagine, il
software dichiara che si tratta di una tazza, e assegna a questa
identificazione addirittura il 99% di probabilità. Il ricercatore ripete
l’esperimento con altri pixel sparsi e il software dice con la stessa certezza
che si tratta di una tastiera, di una busta, di una pallina da golf o di una
fotocopiatrice. Eppure noi, guardando le immagini alterate, continuiamo a
vedere chiaramente che si tratta sempre di un telecomando.
Fotogramma tratto dal video di Computerphile.
La conclusione di questo esperimento è che non solo i computer riconoscono gli
oggetti in maniera molto differente da noi, ma esistono delle immagini che li
confondono completamente anche se ai nostri occhi non sono ambigue e sembrano
semplicemente foto di un oggetto sporcate da qualche puntino disposto a caso.
Noi prendiamo lucciole per lanterne, loro scambiano telecomandi per palline da
golf.
[CLIP da video di presunti fantasmi visti dalle Tesla]
Nel caso dei presunti fantasmi avvistati dalle Tesla, è probabile che una
specifica inquadratura di un particolare punto del prato di un cimitero
contenga momentaneamente un insieme di pixel sparsi qua e là, come quelli
usati nell’esperimento di Turner, che al nostro sguardo non spiccano affatto
ma che per il software spostano la probabilità di identificazione verso la
categoria “persona”.
Bisogna ricordare, infatti, che non è necessario che l’immagine sia
riconosciuta con il 100% di certezza: è sufficiente che il software assegni
alla categoria “persona” una probabilità anche solo leggermente più alta
rispetto a tutte le altre categorie. E così sullo schermo comparirà
improvvisamente e per un istante la sagoma di un essere umano.
Mistero risolto, insomma. Ma un fantasma, comunque, in questa storia c’è lo
stesso.
Il fantasma in autostrada
Gli avvistamenti di presunti fantasmi nei cimiteri a causa di errori del
software di riconoscimento delle immagini ovviamente fanno parecchia
impressione e generano video molto virali, ma c’è un altro tipo di
avvistamento fantasma da parte delle automobili dotate di telecamere che è
reale ed è importante conoscerlo perché ha conseguenze molto concrete.
Le telecamere di questi veicoli vengono usate per l’assistenza alla guida, per
esempio per il mantenimento di corsia, per la lettura dei limiti di velocità e
per l’identificazione degli ostacoli. L’auto adatta la propria velocità in
base alla segnaletica e alla presenza di barriere, veicoli o altri oggetti
lungo la strada. Ma se il software di riconoscimento delle immagini sbaglia ad
assegnare categorie agli oggetti che vede, le conseguenze possono essere
pericolose.
Questi sbagli possono essere spesso comprensibili e anticipabili da parte del
conducente, come in un
video
molto popolare che circola su Twitter e mostra una Tesla che sbaglia a
identificare una carrozza che le sta davanti e la mostra come camion, come
furgone, poi di nuovo come autoarticolato ma rivolto in senso contrario alla
direzione di marcia, e infine aggiunge un inesistente essere umano che cammina
in mezzo alla strada. Fortunatamente tutta la scena avviene a bassissima
velocità e in modalità di guida manuale; ma se fosse stata attiva la guida
assistita, come avrebbe reagito l’auto a quel pedone fantasma?
In altre circostanze, invece, lo sbaglio del software può essere completamente
incomprensibile e imprevedibile. Se il riconoscimento delle immagini del
sistema di assistenza alla guida identifica erroneamente che c’è un ostacolo
che in realtà non esiste, e lo fa perché in quell’istante l’immagine inviata
dalle telecamere contiene per caso dei pixel che spostano la probabilità di
identificazione verso la categoria “ostacolo”, l’auto potrebbe frenare di
colpo senza motivo apparente. È quello che gli utenti di questi veicoli
chiamano
phantom braking, ossia “frenata fantasma”, e se avviene nel traffico può aumentare la
probabilità di tamponamenti, perché il conducente del veicolo che sta dietro
non si aspetta che l’auto che ha davanti freni improvvisamente e senza motivo
quando la strada è libera. Le versioni più recenti dei software di guida
assistita hanno ridotto questo fenomeno, ma non è ancora scomparso del tutto.
Si può anche immaginare uno scenario in cui vengono create
intenzionalmente situazioni che sembrano innocue ai nostri occhi ma
producono errori nei sistemi di riconoscimento delle immagini. Per esempio,
per le auto a guida assistita è facile pensare a immagini speciali, applicate
al retro di furgoni o camion o cartelli stradali, oppure sul manto stradale,
che hanno un aspetto normale ma contengono uno schema di pixel apparentemente
casuali che forza i veicoli a frenare, accelerare o cambiare corsia, con
intenti ostili oppure protettivi.
Uscendo dal settore automobilistico, sono già in vendita
indumenti
che hanno colorazioni e forme che all’osservatore umano sembrano prive di
significato ma che mettono in crisi i sistemi di riconoscimento facciale delle
telecamere di sorveglianza. In campo medico, l’uso crescente di sistemi di
riconoscimento automatico delle immagini per la diagnosi può portare a sviste
devastanti se il software non ha un approccio prudente, ossia genera falsi
positivi invece di falsi negativi, e se il medico non conosce e non considera
queste debolezze del software.
Insomma, non vi angosciate: le anime dei defunti non hanno deciso di rendersi
visibili solo a chi ha un’automobile di una specifica marca. Almeno per ora.
[CLIP: Risata di Vincent Price da Thriller di Michael Jackson]
Moltissime testate giornalistiche [per esempio Corriere della Sera, Open,
Secolo XIX, CBS, El Pais, Fortune],
compresa la RSI, hanno pubblicato la notizia dell’allarme diffuso via Twitter dall’FBI a
proposito delle prese pubbliche di ricarica per telefonini e altri
dispositivi elettronici: queste prese sarebbero pericolose perché potrebbero
essere usate da criminali informatici per infettare i dispositivi, leggere e
rubare dati e anche tracciare smartphone, tablet e computer dopo che sono stati scollegati.
Sarebbero maggiormente esposti gli utenti Android, ma anche gli utenti Apple
non dovrebbero sentirsi al sicuro.
La tecnica usata dai malfattori ha un nome specifico: si chiama
juice jacking, che in inglese significa “presa di controllo tramite la corrente”
(juice è un modo informale per indicare la corrente elettrica e
jacking è un troncamento di hijacking, ossia “dirottamento,
presa di controllo”).
L’idea di non poter usare queste comodissime prese di ricarica, così preziose
quando si è in viaggio e il telefonino, il tablet e il computer sono a corto
di energia, è preoccupante e riguarda moltissime persone, e la fonte
dell’allarme, l’FBI, sembra assolutamente attendibile; è quindi
comprensibile che i giornalisti l’abbiano diffuso con entusiasmo. Ma scavando
un pochino viene fuori che l’allarme è basato sul nulla: o meglio, su un corto
circuito. Non elettrico, ma informativo.
L’avviso dal quale è partita tutta la preoccupazione è infatti un
tweet
della sede distaccata dell’FBI di Denver, datato 6 aprile 2023, che dice che
“attori ostili hanno trovato modi per usare le porte USB pubbliche per
inserire malware e software di monitoraggio nei dispositivi”
e raccomanda di portare con sé un proprio caricatore e un proprio cavetto USB e
di usare le prese elettriche normali invece dei cavetti offerti.
Avoid using free charging stations in airports, hotels or shopping centers.
Bad actors have figured out ways to use public USB ports to introduce
malware and monitoring software onto devices. Carry your own charger and USB
cord and use an electrical outlet instead.
pic.twitter.com/9T62SYen9T
Questo tweet dell’FBI, però, non fornisce dettagli tecnici o fonti.
Così il giornalista informatico
Dan Goodin ha contattato
l’FBI, un cui portavoce gli ha spiegato che la sede di Denver ha basato il
proprio allarme su informazioni provenienti dalla FCC, la Federal
Communications Commission, l’autorità governativa statunitense che regola e
amministra l’uso delle frequenze radio e delle telecomunicazioni. E in effetti
sul sito della FCC c’è un
avviso, datato 11 aprile 2023, che ripete sostanzialmente le raccomandazioni
dell’FBI, anche qui senza fornire dettagli tecnici o fonti.
Ma a sua volta, spiega sempre Goodin, la FCC dice che le sue informazioni si
basano su un articolo del New York Times del 2019 [probabilmente
questo, paywallato], che si basava su un avviso diffuso dall’ufficio del procuratore
distrettuale di Los Angeles. Ma quell’avviso è stato rimosso a dicembre 2021,
dopo che era emerso che i funzionari del procuratore distrettuale non avevano
alcuna prova del fenomeno. Anche la FCC non è in grado di citare un singolo
caso in cui questo juice jacking su prese pubbliche sia realmente avvenuto.
In altre parole, l’allarme dell’FBI si basa su un complicato passaparola alla
cui origine c’è il nulla.
---
Possiamo quindi stare tranquilli e collegare i nostri dispositivi alle prese
negli aeroporti e nei luoghi pubblici e dimenticarci di questo falso allarme?
Probabilmente sì. La capacità di infettare uno smartphone semplicemente
collegandolo a un cavetto di ricarica sarebbe una tecnica troppo potente e
pericolosa per sprecarla su bersagli comuni in luoghi pubblici, e se esistesse
da ben quattro anni, le case produttrici di dispositivi avrebbero nel frattempo
rimediato, diffondendo aggiornamenti correttivi. Quindi le prese USB e i cavetti che trovate nei normali luoghi pubblici sono quasi sicuramente privi di
pericoli informatici.
Detto questo, esiste un rischio teorico. Le prese di ricarica dei
dispositivi includono quasi sempre dei contatti elettrici che accettano dati e comandi.
Sarebbe quindi possibile mandare dei comandi a un dispositivo connesso
attraverso un cavetto appositamente costruito, come per esempio l’OMG Cable
di Hak5. Questi comandi permetterebbero di prendere il controllo di un
dispositivo sbloccato quanto basta per infettarlo o estrarne dati. Ma cavetti speciali
come questi hanno un costo piuttosto alto (oltre 100 dollari). Troppo alto per lasciarli
in giro in un luogo pubblico.
Il rischio reale, insomma, è minimo, e infatti non ci sono casi documentati di
questo juice jacking nonostante se ne parli a livello teorico da anni.
Ma se preferite evitare anche quel minimo rischio, usate il vostro caricatore,
quello che si inserisce nella presa elettrica, o una vostra batteria esterna o
powerbank. E se proprio siete paranoici, esistono anche dei
cavetti speciali
e degli isolatori per cavetti di ricarica, i cosiddetti
data blocker, che fanno passare solo la corrente elettrica ma non i dati.
La Provincia di Como ha pubblicato il 28 novembre un
articolo
(copia permanente) a firma di Marco
Palumbo che titola
“Svizzera, stop ai veicoli elettrici e in autostrada si va a 100
all’ora”. Il titolo fa sembrare che sia una descrizione della situazione attuale o
prossima ventura (il sottotitolo parla di
“misure in vigore dal 12 dicembre”), e ovviamente gli ottusangoli che
odiano le auto elettriche ne gongolano pateticamente (sulla scia per esempio
di
Francesca Totolo).
Un
articolo su HWupgrade
(copia permanente) segue la stessa
falsariga, usando il titolo “Clamoroso dietrofront della Svizzera: auto elettriche vietate, limite a 100 km/h e riscaldamento a 18 gradi” per un articolo a firma di Massimiliano Zocchi.
L’8 dicembre Il Sole 24 Ore ha titolato “Auto elettriche: la Svizzera vicina al divieto di circolazione. Svezia stop agli incentivi”, a firma di Giulia Paganoni (copia permanente).
Ma tutti questi titoli sono falsi e ingannevoli. Abito in Svizzera (vicino a Lugano) e ho
un’auto elettrica. Posso dire, con la certezza dell’esperienza diretta sul
posto, che non c’è nessuna restrizione alla circolazione delle automobili
elettriche.
L’articolo de La Provincia spiega che l’idea di limitare l’uso dei veicoli elettrici per
gestire la penuria energetica è solamente un’ipotesi. Cito infatti
dall’articolo in questione:
[...] l’esecutivo federale ha persino paventato l’ipotesi di introdurre «il
divieto di circolazione delle auto elettriche, in caso di penuria
energetica»
Il presunto “divieto” non è in vigore oggi e non è previsto che entri automaticamente in
vigore dal 12 dicembre.
La frase virgolettata da Marco Palumbo sembra essere
tratta da
questo documento PDF
del Consiglio Federale, che è un documento consultivo, non dispositivo:
è una sorta di FAQ sulle misure per contrastare la penuria di energia
elettrica.
Fra le tante misure in consultazione, si propone di limitare a 100 km/h
la velocità sulle strade nazionali (attualmente il limite autostradale è 120
km/h) perché
“chi viaggia sotto i 100 km/h dovrà ricaricare di meno le batterie,
riducendo così il consumo di elettricità.”
Quindi nessuno “stop”, ma semmai una eventuale limitazione dei consumi.
Il documento propone anche un divieto di uso delle auto elettriche, ma
solamente “[i]n caso di penuria persistente (fase 3)”. In tal caso
“si può limitare l'uso privato delle auto elettriche al minimo
indispensabile. Rimarrà lecito l'uso per spostamenti assolutamente necessari
come la spesa, le visite mediche e l'esercizio della propria
professione.”
Quindi anche nel caso peggiore, non si tratterebbe di uno stop assoluto.
2022/12/13 9:10. Sulla questione è intervenuto oggi il Corriere del Ticino con un editoriale di Paride Pelli che nota che “Se non si tratta di fake news, poco ci manca”.
È arrivata anche sui media italiani la notizia di un incidente mortale
avvenuto in Cina alcuni giorni fa. Per come ne parla per esempio
Repubblica, una Tesla Model Y avrebbe
“iniziato a correre all'impazzata in strada”, come se l’auto avesse
fatto tutta da sola. Lo stesso articolo descriveva inizialmente Elon Musk come
un “magnate russo” [sic], come si vede nello screenshot qui accanto,
quindi potete immaginare con quanta cura sia stato redatto.
Dell’incidente parla anche la Rai in un
servizio
che parla di una “Tesla che provoca un incidente mortale”, anche qui
come se il veicolo avesse agito in totale autonomia. Ma in realtà c’era un
conducente a bordo.
Né Rai né Repubblica, dopo aver mostrato il video impressionante e
acchiappaclic dell’incidente, hanno ritenuto utile informare i loro lettori
dei dettagli tecnici della vicenda, limitandosi a uno scarno riassunto che
include il triste bilancio di due morti e tre feriti. Questa scelta lascia
facilmente nel lettore l’impressione che l’auto sia impazzita e che per
estensione i veicoli elettrici a guida assistita (spesso erroneamente
descritti come “a guida autonoma”) siano pericolosi e incontrollabili.
Provo a chiarire come stanno realmente le cose.
Ho scelto di non incorporare qui il video ma di descriverlo, perché è davvero
spaventoso e non voglio attirare clic morbosi. Chi vuole esaminarlo può farlo
per esempio
qui oppure
qui. Il video mostra
l’intera sequenza dell’evento, ricostruita montando le riprese delle
numerosissime telecamere di sorveglianza situate lungo il percorso dell’auto.
Nel video si vede che la Model Y dapprima accosta a bassa velocità, quasi si
ferma al lato della strada, e poi ritorna in carreggiata, accelerando
bruscamente e quasi investendo un ciclista, scansando con una violenta
sterzata una persona in scooter e poi sfrecciando a velocità sempre più
sostenuta lungo la strada rettilinea che attraversa il centro abitato,
investendo in pieno un motociclista e di striscio un ciclista e poi colpendo
frontalmente un furgone. La collisione la fa sbandare e concludere la propria
corsa contro degli oggetti sul ciglio della strada dopo circa due chilometri e
mezzo. L’intera sequenza dura una trentina di secondi.
L’incidente è avvenuto a Chaozhou, nella provincia di Guangdong, nella Cina
meridionale. Il video riporta la data del 5 novembre 2022.
Nel video non si vede nessuna accensione delle luci posteriori di frenata. Un
membro della famiglia del conducente (che è un uomo di 55 anni, che ha
riportato delle ferite) ha dichiarato che il pedale del freno dell’auto non
rispondeva e che anche quando il conducente ha cercato di mettere l’auto in
Park il veicolo ha continuato la propria corsa.
Tesla, che ha i dati di telemetria dell’auto, dichiara invece (secondo Tesmanian) che non è vero
che i freni non funzionavano. La telemetria, dice, indica che l’acceleratore è stato
premuto a fondo e che il conducente non ha agito sul pedale del freno. Gli
stessi dati indicano anche che il conducente ha premuto quattro volte il
pulsante Park e che le luci di frenata si sono accese e spente brevemente.
Sulle Tesla, tenere premuto a lungo il pulsante Park mentre si è in moto
produce l’arresto del veicolo.
Secondo i media locali (Cnevpost; Global Times), che pubblicano altre foto dell’incidente, il conducente aveva accostato
davanti al negozio di materiali da costruzione che gestisce e quando ha
premuto il pedale del freno ha notato che era troppo duro per consentire di
fermare completamente l’auto. Gli ultimi 1400 metri circa sarebbero stati
percorsi dopo che la gomma anteriore sinistra era scoppiata. Il conducente è
un ex camionista e la Tesla distrutta è la sua. La polizia locale ha escluso
che il conducente fosse sotto l’effetto di alcol o farmaci.
Questi sono i fatti noti fin qui.
----
Le congetture intorno all’incidente abbondano. Molti hanno ipotizzato che si
sia trattato di un malfunzionamento del sistema di guida assistita (non
autonoma), il cosiddetto Autopilot, ma né il conducente né Tesla hanno
dichiarato che il sistema fosse attivo. In ogni caso, l’assistenza di guida
non può assolutamente comportarsi nel modo che si vede nel video. Gli
sbandamenti e le accelerazioni violente che si vedono nelle immagini non sono
compatibili con l’Autopilot, e comunque qualunque pressione sul pedale del
freno avrebbe disattivato immediatamente l’assistenza di guida.
Un’altra ipotesi è che l’auto abbia iniziato ad accelerare per qualche suo
guasto profondo e la potenza del motore abbia reso vano l’uso dei freni. Ma
dal video si vede che gli stop non si sono accesi se non fugacemente, e di
fatto i freni di qualunque autoveicolo sono progettati per superare anche la
massima potenza del motore.
Una terza ipotesi è che qualche grave difetto nel software di gestione del
veicolo abbia fatto “impazzire” la Tesla, dando massima potenza al motore e
inibendo i freni. Per capire quanto uno scenario del genere sia implausibile,
bisogna tenere presente tre cose:
I freni sulle Tesla sono un sistema completamente meccanico, che funziona
anche senza alimentazione elettrica semplicemente premendo il pedale
apposito. Il software non ha alcun modo fisico di “inibire” i freni. Può
solo dare comandi di attivazione della frenata, ma non può scavalcare
il pedale del freno. Il rilascio del pedale è un meccanismo a molla: gli
attuatori comandati dal software possono solo agire premendo sul
pedale.
Per l’accelerazione, il software ha una serie di controlli incrociati
severissimi. Qualunque manovra che comporti per esempio accelerazioni
eccessive, livelli di potenza erogata non accettabili o qualunque altra
condizione anomala viene semplicemente respinta. In casi estremi, il sistema
di gestione della batteria (BMS) può addirittura staccare
completamente l’alimentazione elettrica dei motori tramite un
fusibile pirotecnico non riattivabile.
Tesla stessa
spiegava
già nel 2020 che
“l’auto accelera se, e solo se, il conducente le dice di farlo, e
rallenta o si ferma quando il conducente agisce sui freni... i pedali
dell’acceleratore delle Model S, X e 3 hanno due sensori di posizione
indipendenti, e se si verifica qualunque errore il sistema ha come default
l’azzeramento della coppia del motore. Analogamente, se si agisce
contemporaneamente sul pedale del freno e su quello dell’acceleratore,
l’input dell’acceleratore verrà scavalcato e la coppia al motore verrà
azzerata, e a prescindere dalla coppia una frenata persistente fermerà
l’auto.”
La quarta ipotesi circolante (senza la minima prova) è che Tesla abbia alterato la registrazione della
telemetria in qualche maniera per esonerarsi. Il problema di quest’idea è che
il modo in cui sono scritte queste registrazioni (i log) è
serializzato, ossia una riga dipende dal contenuto della precedente, e le registrazioni contengono moltissimi parametri ripetuti e riferimenti incrociati
(l’accelerazione, per esempio, viene registrata dall’accelerometro, dai
pedali, dal sensore di coppia, eccetera); ho visto personalmente questi file (della mia Tesla Model S e di altre Tesla) e sono complicatissimi da leggere anche dopo la decodifica.
Qualunque alterazione dei log sarebbe
complicatissima, con effetti a cascata che la rivelerebbero, e andrebbe fatta
anche sulla copia dei dati registrata localmente nella memoria dell’auto
dopo che il veicolo è stato distrutto dall’incidente (o la memoria
locale dovrebbe essere azzerata per “dimenticare” cosa è successo). Una
strategia non impossibile, ma tecnicamente troppo onerosa e con il rischio di
essere smascherati pubblicamente (come dimostrato dal Dieselgate).
Ma allora come si potrebbe spiegare quello che si vede nel video?
---
Premetto che quanto segue è semplice congettura ragionata, sulla base dei dati
disponibili finora, e come tale andrà sicuramente riesaminata quando saranno
disponibili gli esiti delle perizie esterne già commissionate.
A mio avviso, la spiegazione meno irragionevole è che il conducente abbia
semplicemente premuto per errore l’acceleratore pensando di premere il freno e
poi, vedendo che l’auto continuava ad accelerare, preso dal panico abbia
continuato a premere a fondo l’acceleratore credendo di agire sul pedale del
freno. So che a mente fredda questo può sembrare impossibile, ma va
considerato che ogni anno negli Stati Uniti avvengono
oltre 16.000 incidenti causati da conducenti che scambiano
l’acceleratore per il freno, secondo
dati dell’ente NHTSA del 2015. E questo avviene senza che ci siano di mezzo veicoli elettrici o sistemi di guida assistita.
In media, insomma, 43 volte al giorno un automobilista americano preme l’acceleratore
al posto del freno e causa un incidente. Capita anche in Europa, come mostra
per esempio
questo incidente a Roma. Non si tratta di una Tesla.
Auto impazzita finisce la sua corsa su Palazzo Cimarra in via Panisperna.
Nessun ferito ma un pedone ha rischiato grosso. La donna al volante e suo
figlio escono dalla vettura illesi. Nel video la scena dell'incidente
#INCIDENTE#Roma#sicurezzapic.twitter.com/vG8rpWwI3B
Gli stessi dati dell’NHTSA notano che in 40 anni di indagini sugli episodi di
accelerazione improvvisa non intenzionale
“non sono mai stati identificati difetti del veicolo che possano causare
avarie improvvise sia dell’acceleratore sia dei freni”. La colpa è risultata sempre un errore del conducente, causato da
distrazione, calzature non adeguate, cattive abitudini di posizionamento del
piede sul freno che lo fa scivolare dal pedale del freno verso quello
dell’acceleratore, e così via.
Per esempio, Toyota fu al centro di una
serie di casi di accelerazione improvvisa involontaria dal 2009 al 2011: le indagini appurarono che c’erano difetti nei tappetini e nei pedali che
in alcune circostanze potevano facilitare errori, ma i casi esaminati
risultarono essere imputabili soprattutto a un errore di azionamento dei
pedali da parte del conducente.
Tuttavia un‘intervista al conducente, pubblicata in inglese su Cnevpost.com, gli attribuisce delle dichiarazioni precise che ribadiscono la sua tesi:
Non era al telefono.
Quando ha accostato, ha tolto il piede dall’acceleratore e lo ha messo sul freno, ma ha avvertito che la frenata elettromagnetica rigenerativa (il “freno motore” delle auto elettriche) era differente dal solito e quindi ha iniziato a premere il freno, sentendolo duro. Ha premuto il pedale due volte, senza successo. A questo punto il veicolo stava ancora procedendo molto lentamente.
Avvertendo che l'auto stava funzionando in modo anomalo, ha premuto il pulsante Park. È a questo punto che l’auto ha accelerato.
Ha premuto il freno con tutte le sue forze e ha sterzato per evitare un motociclista.
Ha tenuto il piede sul freno, sperando che riprendesse a funzionare e cercando un ostacolo contro il quale fermare la corsa del veicolo, ma a questo punto stava procedendo già a oltre 100 km/h e quindi non ha potuto fare altro che tentare di evitare gli altri occupanti della strada.
Ha perso i sensi dopo lo schianto.
Ha effettuato un esame del sangue appena ricoverato in ospedale.
Il rumore di clacson che si sente nel video non è suo; aveva entrambe le mani sullo sterzo e con le dita stava premendo il pulsante Park sulla levetta che sporge dal piantone.
Se le dichiarazioni del conducente corrispondono a quanto effettivamente accaduto, restano aperte le ipotesi di un difetto intrinseco dei veicoli di questo tipo che si manifesta solo in occasioni molto rare, di una modifica effettuata o di un danno subìto inavvertitamente. Ma resta da capire come un difetto, una modifica o un danno possano avere un effetto così catastrofico e contemporaneo sul sistema di guida e sull’impianto frenante.
----
2023/03/01 11:15. Su Twitter è stata pubblicata quella che sembra essere la perizia sull’incidente. Secondo i tweet che la descrivono, l’acceleratore è stato premuto a fondo per tutto il tempo e i freni non sono stati mai azionati. Sembra la tipica situazione di errore del conducente; l’alternativa è ipotizzare che la perizia sia falsa o che Tesla abbia alterato i dati.
Tesla Model Y Chaozhou crash forensics finished ✴️accelerator pressed 100% entire time ✴️brakes were off entire time ✴️5 sec prior crash, speed 164km/h, steering wheel angle moved 25° , stability control on, speed down to 159km/h, back up to 163km/h & crash (小特叔叔 microblog) https://t.co/AU376gBrx7pic.twitter.com/CepuDvuR1H
Un errore giornalistico di mancata verifica della fonte di un tweet comico,
come quello raccontato nella
notizia precedente, è tutto sommato un incidente che ha poche conseguenze oltre a ispirare, si
spera, maggiore cautela nel condividere contenuti trovati nei social network.
Ma non sempre le conseguenze sono così lievi. Dagli Stati Uniti arriva una
storia di fake news assurda che sta avendo risvolti molto dolorosi e ha
un’origine ancora più triste.
Numerosi esponenti politici repubblicani hanno dichiarato pubblicamente, e in
tutta serietà, che – e qui preciso subito che quello che sto per dire adesso
non è assolutamente vero – nelle toilette di varie scuole americane
verrebbero predisposte delle lettiere igieniche per venire incontro alle
esigenze dei ragazzi e delle ragazze che si identificano come
furry, ossia come persone che sono interessate agli animali antropomorfi ed
esprimono questo interesse in vari modi, dalle illustrazioni di personaggi di
questo tipo all’uso di costumi a tema alla creazione di personaggi da usare in
scenari di giochi di ruolo.
Queste dichiarazioni – che, ripeto, sono completamente prive di fondamento –
sono state fatte nei media o in occasione di eventi pubblici in
Colorado,
Minnesota,
Ohio,
Tennessee,
Iowa
e in altri stati del paese da almeno una ventina di funzionari o candidati
politici conservatori e spuntano regolarmente nelle riunioni dei consigli
scolastici per bocca di genitori indignati, secondo una
ricerca pubblicata dalla rete NBC.
Tutti i distretti scolastici citati hanno
smentitopubblicamente
queste dichiarazioni. Anche l’agenzia Reuters ha
indagato
sull’argomento, smentendolo completamente; lo stesso ha fatto anche
Politifact, dando lo stesso verdetto. Non c’è la minima conferma che esista anche solo
una scuola dove sarebbero state piazzate delle lettiere igieniche per venire
incontro agli studenti che si identificano come gatti, eppure si è unito al
coro degli inorriditi anche il popolarissimo podcaster Joe Rogan, in una
puntata del suo podcast diffusa a ottobre del 2022.
Joe Rogan just said that he knows a teacher whose school installed a litter
box in the girl’s bathroom because a student identifies as a cat and her
mother badgered the school until they did it.
pic.twitter.com/OpF1zNlg01
2022/11/03. Rogan ha dichiarato che la notizia che ha dato è
“probabilmente imprecisa”, scrive oggi il
Washington Times.
L’idea che possano esistere delle lettiere igieniche nelle scuole per venire
incontro a coloro che si identificano come animali dovrebbe essere di per sé
talmente assurda e demenziale da essere scartata subito da qualunque persona
di buon senso, e si potrebbe far notare che neppure nei raduni dei
furry viene predisposto qualcosa del genere (sì, ho chiesto). Chissà
perché mai, oltretutto, una persona che si immedesima in un drago o in un
rinoceronte dovrebbe aver bisogno di una lettiera, come se queste creature ne
usassero una. Ma buon senso, fatti e ragionamenti non servono a nulla: la
storia falsa continua a circolare. Su TikTok, per esempio, un
video
che ha ripetuto questa diceria ha accumulato oltre 3 milioni di
visualizzazioni prima di essere rimosso.
Vista così potrebbe sembrare una delle tante catene di Sant’Antonio che
circolano da decenni: stupida, ridicola e imbarazzante per chi la condivide e
dimostra di diffondere dicerie pazzesche senza verificarle. Ma in questo caso
c’è un risvolto tutt’altro che frivolo.
L’inchiesta della NBC
documenta infatti che questa diceria viene diffusa da esponenti di una
specifica area politica per dimostrare quelle che secondo loro sarebbero le
conseguenze terribili della cosiddetta “agenda LGBTQ”. La loro
argomentazione è che le lettiere nelle toilette fornite a chi si identifica
come furry sarebbero il risultato folle di quella che loro considerano
una pericolosa permissività intorno all’identità di genere, e quindi questa
storia infondata viene usata per attaccare e denigrare le persone LGBTQ.
È una tecnica classica del cospirazionismo e della propaganda: si diffonde una
falsità sensazionale e la si spaccia per vera e accertata, usandola come cuneo
per ridicolizzare e far sembrare irragionevole la parte avversaria. Chi la
diffonde la crede vera perché l’ha sentita da un’altra persona di cui si fida,
come nelle classiche catene di Sant’Antonio, ma soprattutto perché
ideologicamente
vuole che sia vera.;
---
Una brutta storia, insomma, ma la cosa più triste è l’origine di questa
falsità. Durante la sua inchiesta, la NBC ha in effetti trovato un caso di
un
distretto scolastico, quello della contea di Jefferson, in Colorado, che dal
2017 tiene a disposizione della sabbia per lettiere per gli studenti. Ma non
nelle toilette: la conserva direttamente nelle aule.
Questa sabbia, infatti, fa parte dei cosiddetti “go bucket”: un
assortimento di risorse d’emergenza da usare se gli studenti e i docenti si
trovano bloccati a lungo in un’aula durante una sparatoria. Una delle tante
che purtroppo insanguinano gli Stati Uniti. La strage della scuola superiore
Columbine del 1999, nella quale due ragazzi uccisero con armi da fuoco tredici
persone, avvenne in questo stesso distretto scolastico.
Queste risorse includono anche materiale di pronto soccorso, una cartina della
scuola, delle torce e delle salviettine igieniche. Da questa tragica necessità
è nata la diceria delle toilette speciali per furry. E deve essere
sconsolante, per i giovani studenti, vedere che i loro genitori si disperano
per il pericolo immaginario delle lettiere e non fanno nulla per quello,
terribilmente reale e ricorrente, delle stragi armate nelle scuole.
Mi sono arrivate parecchie segnalazioni a proposito di un articolo pubblicato
da Il Gazzettino, Leggo e Il Messaggero e firmato da
Angela Casano (copia permanente;
copia permanente;
copia permanente). L’articolo titola
“Acquista un Suv elettrico da 80.000 euro e scopre che per ricaricarlo in
garage servono più di 4 giorni”,
ma è falso e ingannevole: non è affatto vero che normalmente serve così tanto
tempo e non viene precisato che l’auto ha una batteria grande il triplo di
quelle normali.
La giornalista non ha incluso nel suo articolo il link al video che descrive
(un’omissione frequentissima nel giornalismo online), rendendo impossibile al
lettore qualunque approfondimento, ma grazie a
@Ruggio81, che ha trovato il
video in questione,
si può capire come stanno realmente le cose.
Il video citato e descritto da Angela Casano non mostra alcuna scoperta
improvvisa da parte di un utente particolarmente sprovveduto (come suggerisce
il titolo) ma presenta semplicemente un esperimento consapevole,
pubblicato oltretutto su un canale YouTube dedicato alle auto elettriche e
quindi competente in materia.
L’esperimento è stato fatto per dare risposta a una semplice curiosità: quella
di vedere quanto ci vorrebbe a caricare un
veicolo elefantiaco
(oltre 4 tonnellate), che ha una batteria enorme (da ben
212 kWh, il triplo di un’auto elettrica normale), se si volesse usare una comune
presa domestica statunitense (a 110 V) e un caricatore mobile invece di una
presa domestica apposita o di una wallbox. Tutto qui.
È grave e fuorviante che l’articolo di Angela Casano non dica che
l’auto in questione ha una batteria tre volte più grande di quelle normali,
triplicando quindi i tempi di carica. Questo rischia di far pensare al lettore che persino
“uno dei Suv con più alte prestazioni sul mercato” richieda tempi
biblici per la ricarica quando non è affatto così. Infatti anche nelle
condizioni atipiche usate per l’esperimento, un’auto elettrica
normale (con una batteria da 60-70 kWh) si caricherebbe in un giorno.
È inoltre falso scrivere che
“per ricaricarlo in garage servono più di 4 giorni”, perché collegando
questo veicolo a una normale presa di ricarica per auto elettriche serve un
giorno solo, non quattro.
Questo viene detto e mostrato esplicitamente nella seconda parte del video
stesso.
Questa è la trascrizione di quello che viene detto nel video:
“The new GMC Hummer EV truck is the quickest charging vehicle on the market
right now. But what if you're not at a fast charger and just at home? How
fast does it charge? Just plugged it at my house, 120 volts, using the
Hummer cable. Level 1 charging, 120 volts, using the Hummer cable. Right now
it's about 6 pm on Tuesday and it says it will be full by Saturday at 10:55,
which is four plus days of charging. Wow. I have a Juice Box Level 2
charger, 240 volts at my garage. Plug in Level 2 charger. Now it says it
will be done tomorrow by 6:30, so about 24 hours of charging from 4% to
100%. It's a 212 kWh battery. Still takes a while.”
Nessuna dichiarazione di disappunto o scoperta.
In traduzione:
“Il nuovo autocarro Hummer EV della GMC è il veicolo che ha la carica più rapida fra quelli oggi sul mercato. Ma che succede se non sei a una colonnina di ricarica rapida e sei semplicemente a casa? A che velocità si carica? L’ho appena collegato a casa mia, a 120 volt, usando il cavo dell’Hummer. Carica di Livello 1, 120 volt, usando il cavo dell’Hummer. Ora sono circa le 18 di martedì e dice che sarà completamente carica entro sabato alle 10:che sono oltre quattro giorni di carica. Wow. Ho un caricatore di Livello 2 Juice Box da 240 volt nel mio garage. Collego il caricatore di Livello 2. Ora dice che avrà finito domani entro le 18:30, quindi circa 24 ore di carica dal 4% al
100%. È una batteria da 212 kWh. Ci mette comunque un po’.”
Inoltre alle colonnine rapide pubbliche da 350 kW un Hummer elettrico
aggiunge
100 miglia (160 km) di autonomia in 10 minuti, secondo il costruttore. Se si
ha fretta di caricare, si va a una di queste stazioni di ricarica.
Resta il fatto che usare su strada un veicolo energivoro del genere è la
totale antitesi dell’efficienza e dell’attenzione per l’ambiente che invece
una normale auto elettrica consente.
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle
donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere
ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico) o
altri metodi.
In breve: La foto del manifesto che invita gli svizzeri a segnalare i
vicini che tengono il riscaldamento a più di 19 gradi è un falso. Nessun
manifesto o invito del genere è stato diffuso dalle autorità della
Confederazione, che hanno formalmente smentito l’immagine.
Si tratta quasi sicuramente di un fotomontaggio realizzato inserendo
digitalmente il falso manifesto in una fotografia stock di una bacheca per
manifesti.
In dettaglio: Sta circolando in maniera virale su Internet e in
particolare sui social network l’immagine di un presunto manifesto che reca il
logo ufficiale della Confederazione Svizzera, il numero del servizio stampa e
informazioni dell’Ufficio Federale dell’Energia, la dicitura
“Heizt der Nachbar über 19 Grad? Dann informieren Sie uns” (“Il vicino tiene il riscaldamento a più di 19 gradi? Allora avvisaci”) e la promessa di anonimato e di una ricompensa di 200 franchi (circa 200
euro).
L’Ufficio Federale dell’Energia ha dichiarato di non avere nulla a che fare
con questa immagine e ne ha preso formalmente le distanze, secondo quanto
riferito da
20min.ch
e da
Mimikama.at, che vi invito a leggere per i dettagli. Non si sa chi sia l’autore del
falso, ma Mimikama nota che la sua prima apparizione è stata notata in un
forum russo.
La foto stock con la quale è stata quasi sicuramente creata l’immagine falsa.
Credit:
20min.ch.
La Regionesegnala
che
“Fra chi ci è cascato con tutte le scarpe, troviamo anche dei politici,
come l’europarlamentare italiano, in quota Lega, Marco Campomenosi”. È troppo chiedere ai politici di essere più responsabili nell'uso dei
social? Perché è difficile lottare contro le fake news se sono loro
stessi a condividerle.
---
21:20. L’indagine tecnica del collega David Puente, pubblicata su Open, ha trovato la fonte di entrambe le immagini usate per costruire quella falsa, rileva che il falso manifesto è stato promosso con forza dalla propaganda russa e che anche Maria Giovanna Maglie (opinionista ed ex giornalista Rai) ha condiviso la bufala.
---
2022/09/15 00:15.La Regioneriferisce che la polizia federale svizzera ha “aperto ufficialmente un’inchiesta dopo aver ricevuto una denuncia per uso abusivo dello stemma e altri elementi della Confederazione.” Il Dipartimento federale dell’ambiente, dei trasporti, dell’energia e delle comunicazioni (DATEC) ha pubblicato sul proprio sito un avviso (copia permanente): “Notizia falsa - Da sabato circolano sui social media falsi post nei quali si invita a segnalare alla Confederazione i casi in cui un vicino riscalda la propria casa oltre i 19 gradi. La Confederazione non ha nulla a che fare con questo appello e ne prende le distanze in ogni forma. Il logo della Confederazione e il numero di telefono riportati sull'immagine sono stati utilizzati in modo abusivo. Non esistono manifesti né appelli di questo genere della Confederazione, si tratta ovviamente di un caso di manipolazione. La Confederazione ha avviato accertamenti a riguardo.”
Maggiori informazioni e analisi dettagliate sono su RSI e Swissinfo.
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle
donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere
ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico) o
altri metodi.
Maurizio Bertera sul Corriere della Sera, nella sezione a pagamento,
scrive
(copia permanente) che
“la Polizia tedesca ha dichiarato che una persona è morta e nove sono rimaste
gravemente ferite dopo che un'auto impegnata in un test di guida autonoma ha
improvvisamente cambiato direzione innescando una serie di collisioni che
hanno coinvolto quattro veicoli.”
La polizia lo ha dichiarato, ma non è vero.
L’auto è una BMW iX elettrica, che non è dotata di guida autonoma: ha
soltanto un sistema di guida assistita, nel quale il conducente rimane
costantemente responsabile della condotta del veicolo. Per cui non poteva
essere in corso alcuna “prova di guida autonoma”.
La polizia tedesca ha affermato inizialmente che il veicolo era un’auto elettrica di prova a guida
autonoma e che non era chiaro se al momento dell’incidente fosse sotto il
controllo del conducente. BMW ha
smentito, sottolineando che il veicolo non era dotato di guida autonoma. L’auto,
tuttavia, era contrassegnata come veicolo di test a scopo di protezione dei
dati, dato che stava effettuando delle riprese video,
scrive Euronews. Da qui, forse, l’equivoco.
Il Corriere, al momento in cui scrivo,
non ha ancora rettificato, nonostante sia stato
avvisato
che la notizia è falsa.
Visto il bilancio tragico dell’incidente, è importantissimo ricordare che i sistemi di guida assistita possono sbagliare (e sbagliano spesso nel momento peggiore) e che la responsabilità della guida del veicolo è sempre e comunque del conducente per tutti i sistemi di questo tipo che sono classificati come SAE Livello 0, 1 e 2.