Sono ormai mesi che macOS Ventura (13.3.*), sul mio Mac principale, ha un comportamento particolarmente irritante: a volte, quando faccio doppio clic su un file nel Finder per aprirlo, mi dice che “non riesce a trovarlo”. Il Finder ovviamente lo elenca, e altrettanto ovviamente il file esiste ed è lì dove il Finder lo mostra, ma niente da fare. Però se faccio un secondo doppio clic sullo stesso file, macOS me lo apre correttamente.
Avete idea di come eliminare il problema? Per ora è solo una scocciatura, per cui sopportarla mi costa molto meno tempo che investigare a fondo per risolverla, ma mi piacerebbe capire cosa provoca un errore così bislacco.
Ho notato che il fenomeno riguarda tutti i tipi di file (ODT, DOC, TXT, PDF e altri) ed è comparso grosso modo dopo che ho aggiornato Dropbox alla nuova versione per macOS, che sposta la cartella dei file di Dropbox sotto /Users/nomeutente/Library/CloudStorage/Dropbox. Inoltre il problema sembra manifestarsi solo sui file gestiti da Dropbox. Ma potrebbe anche essere solo una serie di coincidenze.
Non trovo online nulla di utile: ho visto che altri utenti hanno avuto lo stesso problema, ma nessuno dei rimedi proposti sembra funzionare. Ho già forzato la reindicizzazione di Spotlight (sudo -i; mdutil -Ea; mdutil -ai off; mdutil -ai on): non è cambiato nulla.
In General > Login items ho solo Android File Transfer e Dropbox.
Aggiornamento: date un’occhiata ai commenti arrivati dopo la pubblicazione iniziale di questo post per vedere i suggerimenti e le tecniche che ho già tentato.
Aggiornamento: ho appena aggiornato a Ventura 13.4: il problema non si è ancora manifestato, ma questo non vuol dire nulla, visto che si manifesta in modo apparentemente casuale.
È disponibile subito il podcast di oggi de Il Disinformatico della
Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate presso
www.rsi.ch/ildisinformatico
(link diretto) e qui sotto.
Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.
---
[CLIP: Gente che grida perché crede di aver visto fantasmi - da
YouTube]
Su
TikTok
e YouTube ci sono
molti
video
che mostrano persone che percorrono lentamente una strada interna di un
cimitero a bordo di una Tesla e si spaventano perché l’auto segnala sul
proprio schermo che vicino al veicolo c’è qualcuno che loro non vedono. Di
solito questi video sono accompagnati da musica inquietante e da reazioni
esagerate, che non si sa se siano sincere o recitate. Ma il tema è sempre lo
stesso: le Tesla vedono i fantasmi. Perlomeno secondo chi pubblica questi
video.
[CLIP: Persone che gridano perché credono di aver visto fantasmi]
Questa è la storia di come un TikTok Challenge in salsa paranormale ha creato
un mito, spaventa gli animi sensibili ed è un’occasione per capire meglio come
funziona realmente il riconoscimento delle immagini tramite intelligenza
artificiale, perché sbaglia e vede “fantasmi”, e soprattutto perché è
importante essere consapevoli che questi suoi sbagli possono diventare
realmente pericolosi.
Benvenuti alla puntata del 19 maggio 2023 del Disinformatico, il
podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie
strane dell’informatica. Io sono Paolo Attivissimo.
[SIGLA di apertura]
Prima di tutto, è importante chiarire che i video di “fantasmi” avvistati
dalle auto Tesla mostrano un fenomeno reale, nel senso che è davvero
possibile che sullo schermo principale di queste automobili, quello che mostra
l’ambiente intorno al veicolo, compaiano sagome di persone che non esistono.
Ma non c’è nulla di ultraterreno o paranormale: si tratta di un effetto
frequente delle tecnologie usate da questo tipo di auto.
Le auto di Tesla e di molte altre marche sono dotate di telecamere perimetrali
che guardano in tutte le direzioni. Le immagini di queste telecamere vengono
inviate al computer di bordo, che le analizza e, nel caso di Tesla, mostra
sullo schermo in cabina un’animazione tridimensionale schematica degli oggetti
che sono stati identificati da questa analisi: le strisce di delimitazione
della corsia, i cartelli stradali, i semafori, i veicoli e i pedoni.
Questa animazione è basata sul riconoscimento automatico delle immagini. Il
software di bordo è stato addestrato a riconoscere gli oggetti mostrandogli
moltissime fotografie di vari oggetti e indicandogli il tipo di oggetto
mostrato, esattamente come si fa con un bambino per insegnargli a riconoscere
le cose che gli stanno intorno. Ma le somiglianze finiscono qui, perché il
software usa un sistema molto differente da quello umano per identificare gli
oggetti.
La differenza fondamentale, semplificando molto, è che il software si basa
esclusivamente sulle immagini, cioè sulle forme e i colori, mentre una persona
usa anche il contesto, ossia informazioni come la distanza, il tipo di
ambiente in cui si trova, le regole fondamentali della realtà: per esempio un
camion non può fluttuare a mezz’aria, gli oggetti non appaiono e scompaiono di
colpo e una persona non può camminare a cento chilometri l’ora.
È questa mancanza di contesto a causare l’apparizione dei fantasmi sullo
schermo delle Tesla: il software sbaglia a interpretare l’immagine che gli è
stata inviata dalle telecamere, non ha modo di “rendersi conto” del proprio
errore valutando la plausibilità della sua interpretazione, e così mostra
sullo schermo il risultato del suo sbaglio. L’automobile non sta rivelando
cose che i nostri occhi umani non possono vedere; le sue telecamere non stanno
ricevendo emanazioni dall’aldilà. I presunti “fantasmi” sono semplicemente
errori momentanei di interpretazione automatica delle immagini.
[CLIP da Ghostbusters]
Anche le persone che credono alla natura ultraterrena di questi avvistamenti
commettono a loro volta un errore di interpretazione, a un livello molto
differente, perché non sanno come funzionano questi software. Ovviamente, se
il contesto è un cimitero, magari di notte, la fantasia galoppa e l’unica
giustificazione che viene in mente a chi non conosce queste tecnologie è la
presenza di un fantasma.
Però tutto questo non spiega come faccia un computer a sbagliare così
clamorosamente, per esempio riconoscendo una sagoma umana in un’immagine in
cui non c’è nessuno ma si vedono solo prati, fiori e qualche lapide. Scambiare
una statua per una persona avrebbe senso, per esempio, ma nei video dei
presunti fantasmi si vede chiaramente che intorno all’auto non ci sono oggetti
di forma umana. Come fa un computer a sbagliare così tanto?
Confondere sedie a dondolo e occhiali
Alexander Turner, assistente universitario presso la facoltà di scienze informatiche
all’Università di Nottingham, nel Regno Unito, spiega in un
video della serie
Computerphile su YouTube che il riconoscimento delle immagini fatto
oggi dai computer in sostanza assegna a ciascuna immagine un valore di
probabilità di identificazione.
[CLIP: dal video di Turner per Computerphile]
Per esempio, se si mostra a uno di questi software una foto di un paio di
occhiali, il software risponde che rientra nella categoria “occhiali” con una
probabilità del 93%, ma non esclude che si tratti di una sedia a dondolo o di
un corrimano di una scala, con probabilità però molto più basse.
Fotogramma tratto dal video di Computerphile.
Questo è il meglio che riesce a fare: bisogna ricordare che il software non
“sa” cosa siano gli occhiali o le sedie a dondolo, ma si sta basando
esclusivamente sulle forme e sui colori presenti nell’immagine e li sta
confrontando con i milioni di campioni di immagini di occhiali, sedie a
dondolo e corrimano sui quali è stato addestrato, misurando quanto l’immagine
proposta si avvicini a una delle categorie che conosce e poi scegliendo la
categoria che ha la maggiore probabilità di corrispondenza, cioè di
somiglianza. Tutto qui.
Questo approccio probabilistico, così lontano dalla certezza umana, porta a
una vulnerabilità inaspettata di questi sistemi di riconoscimento delle
immagini. Come spiega Alexander Turner, di solito il software assegna una
probabilità molto alta a una singola categoria e alcune probabilità molto
basse ad altre categorie, ma è possibile influenzare fortemente queste
assegnazioni con un trucco: basta cambiare qualche pixel a caso dell’immagine
e vedere se la probabilità di identificazione corretta aumenta o diminuisce di
qualche decimale. Se diminuisce, si mantiene quel pixel cambiato e si prova a
cambiarne anche un altro, e così via, ripetutamente, tenendo i pixel alterati
che fanno scendere la probabilità di identificazione esatta e fanno salire
quella di identificazione errata.
La cosa sorprendente di questa tecnica è che i pixel cambiati che alterano il
riconoscimento non hanno niente a che vedere con l’oggetto nell’immagine ma
sono una nuvola di punti colorati apparentemente casuali. Per esempio, si può
prendere una foto di una giraffa, che il software identifica correttamente
come giraffa al 61%, cambiare alcuni pixel qua e là, magari anche solo sullo
sfondo, e ottenere che il software identifichi l’immagine come cane al 63%. Ai
nostri occhi la foto mostra ancora molto chiaramente una giraffa, ma agli
occhi virtuali del software quella giraffa è ora altrettanto chiaramente un
cane.
Fotogramma tratto dal video di Computerphile.
Fotogramma tratto dal video di Computerphile.
Turner prosegue la sua dimostrazione con una foto di un telecomando per
televisori su uno sfondo bianco, che viene riconosciuta correttamente dal
software: ma spargendo opportunamente dei pixel colorati sull’immagine, il
software dichiara che si tratta di una tazza, e assegna a questa
identificazione addirittura il 99% di probabilità. Il ricercatore ripete
l’esperimento con altri pixel sparsi e il software dice con la stessa certezza
che si tratta di una tastiera, di una busta, di una pallina da golf o di una
fotocopiatrice. Eppure noi, guardando le immagini alterate, continuiamo a
vedere chiaramente che si tratta sempre di un telecomando.
Fotogramma tratto dal video di Computerphile.
La conclusione di questo esperimento è che non solo i computer riconoscono gli
oggetti in maniera molto differente da noi, ma esistono delle immagini che li
confondono completamente anche se ai nostri occhi non sono ambigue e sembrano
semplicemente foto di un oggetto sporcate da qualche puntino disposto a caso.
Noi prendiamo lucciole per lanterne, loro scambiano telecomandi per palline da
golf.
[CLIP da video di presunti fantasmi visti dalle Tesla]
Nel caso dei presunti fantasmi avvistati dalle Tesla, è probabile che una
specifica inquadratura di un particolare punto del prato di un cimitero
contenga momentaneamente un insieme di pixel sparsi qua e là, come quelli
usati nell’esperimento di Turner, che al nostro sguardo non spiccano affatto
ma che per il software spostano la probabilità di identificazione verso la
categoria “persona”.
Bisogna ricordare, infatti, che non è necessario che l’immagine sia
riconosciuta con il 100% di certezza: è sufficiente che il software assegni
alla categoria “persona” una probabilità anche solo leggermente più alta
rispetto a tutte le altre categorie. E così sullo schermo comparirà
improvvisamente e per un istante la sagoma di un essere umano.
Mistero risolto, insomma. Ma un fantasma, comunque, in questa storia c’è lo
stesso.
Il fantasma in autostrada
Gli avvistamenti di presunti fantasmi nei cimiteri a causa di errori del
software di riconoscimento delle immagini ovviamente fanno parecchia
impressione e generano video molto virali, ma c’è un altro tipo di
avvistamento fantasma da parte delle automobili dotate di telecamere che è
reale ed è importante conoscerlo perché ha conseguenze molto concrete.
Le telecamere di questi veicoli vengono usate per l’assistenza alla guida, per
esempio per il mantenimento di corsia, per la lettura dei limiti di velocità e
per l’identificazione degli ostacoli. L’auto adatta la propria velocità in
base alla segnaletica e alla presenza di barriere, veicoli o altri oggetti
lungo la strada. Ma se il software di riconoscimento delle immagini sbaglia ad
assegnare categorie agli oggetti che vede, le conseguenze possono essere
pericolose.
Questi sbagli possono essere spesso comprensibili e anticipabili da parte del
conducente, come in un
video
molto popolare che circola su Twitter e mostra una Tesla che sbaglia a
identificare una carrozza che le sta davanti e la mostra come camion, come
furgone, poi di nuovo come autoarticolato ma rivolto in senso contrario alla
direzione di marcia, e infine aggiunge un inesistente essere umano che cammina
in mezzo alla strada. Fortunatamente tutta la scena avviene a bassissima
velocità e in modalità di guida manuale; ma se fosse stata attiva la guida
assistita, come avrebbe reagito l’auto a quel pedone fantasma?
In altre circostanze, invece, lo sbaglio del software può essere completamente
incomprensibile e imprevedibile. Se il riconoscimento delle immagini del
sistema di assistenza alla guida identifica erroneamente che c’è un ostacolo
che in realtà non esiste, e lo fa perché in quell’istante l’immagine inviata
dalle telecamere contiene per caso dei pixel che spostano la probabilità di
identificazione verso la categoria “ostacolo”, l’auto potrebbe frenare di
colpo senza motivo apparente. È quello che gli utenti di questi veicoli
chiamano
phantom braking, ossia “frenata fantasma”, e se avviene nel traffico può aumentare la
probabilità di tamponamenti, perché il conducente del veicolo che sta dietro
non si aspetta che l’auto che ha davanti freni improvvisamente e senza motivo
quando la strada è libera. Le versioni più recenti dei software di guida
assistita hanno ridotto questo fenomeno, ma non è ancora scomparso del tutto.
Si può anche immaginare uno scenario in cui vengono create
intenzionalmente situazioni che sembrano innocue ai nostri occhi ma
producono errori nei sistemi di riconoscimento delle immagini. Per esempio,
per le auto a guida assistita è facile pensare a immagini speciali, applicate
al retro di furgoni o camion o cartelli stradali, oppure sul manto stradale,
che hanno un aspetto normale ma contengono uno schema di pixel apparentemente
casuali che forza i veicoli a frenare, accelerare o cambiare corsia, con
intenti ostili oppure protettivi.
Uscendo dal settore automobilistico, sono già in vendita
indumenti
che hanno colorazioni e forme che all’osservatore umano sembrano prive di
significato ma che mettono in crisi i sistemi di riconoscimento facciale delle
telecamere di sorveglianza. In campo medico, l’uso crescente di sistemi di
riconoscimento automatico delle immagini per la diagnosi può portare a sviste
devastanti se il software non ha un approccio prudente, ossia genera falsi
positivi invece di falsi negativi, e se il medico non conosce e non considera
queste debolezze del software.
Insomma, non vi angosciate: le anime dei defunti non hanno deciso di rendersi
visibili solo a chi ha un’automobile di una specifica marca. Almeno per ora.
[CLIP: Risata di Vincent Price da Thriller di Michael Jackson]
La settimana scorsa sono stato alla Starcon di Bellaria, dove come consueto ho
fatto da traduttore per gli attori ospiti di questo raduno di appassionati di
fantascienza e fantastico. È andato tutto benissimo con due dei tre ospiti:
Ricky Dean Logan ("Data" in
Ritorno al Futuro 2) e
Richard Brake (Re della
Notte in Trono di spade, generale Valin Hess in
The Mandalorian).
Con Ricky Dean Logan.
Con Richard Brake.
Con il terzo, Peter Weller (Robocop), è andata un po’ diversamente.
Visto che fra i partecipanti alla Starcon, nei social network e nei media in
generale girano varie versioni su cosa sia successo, scrivo qui due righe di
chiarimento.
Sabato 13 e domenica 14 Weller ha insistito per parlare in
italiano in entrambe le sue apparizioni sul palco. Normalmente, invece, gli
ospiti stranieri parlano in inglese e io traduco subito dopo in italiano quello che
hanno detto. Questo permette a tutto il pubblico presente di seguire: sia chi
capisce solo l’italiano, sia chi sa solo l’inglese perché arriva alla Starcon
da fuori Italia.
Ma Weller non si rende conto che il suo italiano è buono ma lacunoso e alla
lunga poco comprensibile e difficile da seguire (“estenuante” è l’aggettivo azzeccatissimo usato da una persona presente). Per la sua prima apparizione sono stato accanto a
lui sul palco, a sua disposizione. Mi ha chiesto a bruciapelo come si dicessero in italiano alcuni
termini e glieli ho detti. Ma ha fatto un misto continuo di italiano e inglese,
senza fermarsi per lasciarmi il tempo di tradurre o per correggere le parole
italiane che spesso usava a sproposito.
Peter Weller.
Oltretutto, durante questa sua prima apparizione si è interrotto per tirar
fuori il telefonino e far partire una sessione Zoom per dei suoi conoscenti
(la sessione non riguardava la sua apparizione sul palco). Piuttosto cafona,
come cosa: sarebbe stata assolutamente delegabile. Un dettaglio che dal pubblico non si sarà notato è che ha lasciato attiva quella
sessione Zoom, con il volume alto, rimettendo il telefono in tasca. Io
ero accanto a lui, che cercavo di infilare qualche correzione alle sue parole
italiane sbagliate, con il baccano di gente sconosciuta che conversava
attraverso il suo telefonino. Riuscivo a malapena a sentire cosa diceva Weller. Un disastro, soprattutto per il pubblico.
La sua apparizione sul palco è risultata ben poco comprensibile per chiunque non
fosse bilingue. Un po' di gente, dopo l'evento, si è lamentata in privato e online di non aver
capito molti passaggi dei discorsi di Weller.
Io non c'ero al panel di oggi,ma ieri sì ed è stata l'unica volta che me ne sono andata prima della fine di un incontro. Mi dispiace davvero per te! Alla Starcon ho sempre visto gente interessante, più o meno simpatica, ma lui non è stato né interessante né, tantomeno, simpatico
— TheProffa aka La Pam 🦉#Antifascista sempre (@mammapam) May 14, 2023
Paolo, io ho provato a seguire, ma non riuscivo e ne ne sono andato.
Grazie comunque per tutto quello che fai, per gente come me.
Così prima della sua seconda apparizione gli ho detto in privato che c'erano state delle
lamentele e che per la comprensibilità del suo intervento, non certo facilitata dall’impianto audio pessimo, era meglio
che lui lo facesse nella sua lingua madre e io lo traducessi in italiano. Si è rifiutato e ha detto categoricamente
che avrebbe fatto l'intervento in italiano (o meglio, in quello che secondo lui è italiano). Secondo lui io
sarei dovuto restare sul palco a sua disposizione per dirgli la traduzione delle
parole che non conosceva in italiano.
Gli ho spiegato educatamente che così non si può
lavorare (perché se lui dice una cosa sbagliata in italiano lo devo fermare e
correggere). Ho ribadito che il suo intervento, fatto come lo voleva fare
lui, non sarebbe stato comprensibile per il pubblico. Non ha voluto sentir ragioni e quindi
gli ho detto “I’m an interpreter. I can’t work like this. The stage is
yours” e gli ho indicato il palco.
Lui ha risposto “Then go” (non nel tono di “vattene”, come hanno capito alcuni). Me ne sono andato, mi sono seduto fra il pubblico e ho
ascoltato il suo intervento. È stato un minestrone di italiano e inglese
(con intere frasi in inglese), di parole italiane sbagliate (“lamentazione” al
posto di “lamentela”, “registrazioni” al posto di “lista di nozze”, quel misterioso “gianchi” ficcato ripetutamente nelle frasi in italiano che era “tossicodipendente”, ossia “junkie”, eccetera). Dal palco Weller ha detto che io me ne ero andato via perché ero
“arrabbiato”. Ho alzato la mano e gli ho detto ad alta voce “I’m still here”, anche per far capire al pubblico che non ero misteriosamente assente ma che avevo deciso di non partecipare a questa pagliacciata istrionica.
Risultato: Weller non capiva le
domande del pubblico, che ovviamente gli venivano fatte in italiano. Ha parlato pochissimo di fantascienza, dicendo oltretutto che gli fa abbastanza schifo, cosa un tantinello offensiva verso un pubblico composto da appassionati del genere fantascientifico. Ha chiesto al suo pubblico, composto quasi completamente da italiani, se
conoscevano Dante. Peggio ancora, ha chiesto a noi Trekker se sapevamo chi
fosse J.J. Abrams.
Prevengo una domanda quasi inevitabile: sì, esiste una registrazione
audio e video degli interventi, ma al momento non è previsto che venga pubblicata. Chi c’era sa com’è andata.
Non me la sono presa; sono abituato a gestire gente che è talmente piena di sé da non capire quando sta trattando gli altri come pezze da piedi (come ha fatto Weller con tutto il pazientissimo staff della Starcon) e ho il privilegio di poter dire a queste persone quello che penso di loro e dei loro comportamenti senza dover rendere conto a nessuno tranne il pubblico, perché ho scelto di fare queste traduzioni a titolo gratuito, come volontariato (come fa tutto lo staff della convention).
Mi dispiace per il
pubblico, che avrà perso buona parte del senso di quello che Weller diceva,
solo perché l’attore non ha voluto accettare la critica costruttiva di un
traduttore professionista e ha voluto fare la primadonna. Cosa che, in effetti, gli è riuscita benissimo. Fine della storia.
È disponibile subito il podcast di oggi de Il Disinformatico della
Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate presso
www.rsi.ch/ildisinformatico
(link diretto) e qui sotto.
Più di quarant’anni fa, lo scrittore di fantascienza e futurologo Arthur C.
Clarke scrisse, nel suo libro Profiles of the Future,
parole
sottilmente sprezzanti e profetiche a proposito della musica generata tramite
computer:
“[...] ora che ai calcolatori elettronici è stato insegnato come comporla,
possiamo aspettarci fiduciosamente che ben presto alcuni di questi calcolatori
impareranno ad apprezzarla, evitandoci così lo sforzo”.*
* “The prospect for modern music is a little more favourable; now that
electronic computers have been taught to compose it, we may confidently
expect that before long some of them will learn to enjoy it, thus saving us
the trouble”.
[CLIP: HAL si offre di cantare una filastrocca in 2001 Odissea nello spazio]
Sembra che Clarke ci abbia azzeccato ancora una volta: dopo la musica
sintetica generata dall’intelligenza artificiale, è ora il turno degli
ascoltatori sintetici.
Pochi giorni fa è emersa la notizia che la piattaforma
di streaming audio Spotify ha rimosso dal proprio catalogo decine di migliaia
di brani musicali che erano stati generati usando
Boomy, un servizio di generazione di musica
basato sull’intelligenza artificiale. Spotify ha inoltre bloccato temporaneamente la
pubblicazione di nuovi brani provenienti da Boomy.
Questi brani sono stati rimossi perché sospettati di essere ingredienti di una
frode di “streaming artificiale”. In pratica, gli account Spotify che consumavano
questi brani non erano persone reali che ascoltavano musica: erano programmi che fingevano di essere
ascoltatori, allo scopo di far salire artificialmente il numero di ascolti di brani spazzatura e generare incassi
fraudolenti.
Va chiarito, fra l’altro, che Boomy è estranea alla frode ed è soltanto uno strumento usato
dai truffatori, tanto che Spotify ha
riattivato
la pubblicazione supervisionata di nuovi brani provenienti da questo servizio
di generazione musicale.
La notizia di questo blocco di massa ha fatto scalpore, ma in realtà non è il primo caso del suo genere: il meccanismo della truffa è già noto da tempo, ma secondo le ricerche del sito specializzato Music Business Worldwide è in rapida crescita a causa di tre fattori concomitanti.
Il primo fattore è la recente possibilità di generare a costo bassissimo o nullo un numero enorme di brani musicali, grazie appunto a servizi come Boomy, che dichiara di aver generato per i suoi utenti oltre 14 milioni di tracce musicali. Questo riduce enormemente i costi operativi della frode, perché prima era necessario prendere una persona e farle comporre qualcosa che somigliasse a un brano musicale. E quella persona, ovviamente, doveva essere pagata: poco, ma pagata.
Il secondo fattore è il successo delle cosiddette stream farm, che sono delle organizzazioni illecite che usano dei software basati sull’intelligenza artificiale per simulare il comportamento di un ascoltatore di musica in carne e ossa e coordinano le attività di un numero elevatissimo di questi ascoltatori sintetici per gonfiare il numero di ascolti dei brani spazzatura.
Il terzo fattore, quello decisivo secondo Music Business Worldwide, è l’attuale criterio di distribuzione dei compensi dei servizi di streaming audio, denominato “pro-rata”. In pratica, i soldi che ciascun abbonato paga mensilmente a Spotify, Apple Music o altri servizi analoghi confluiscono in un unico conto generale. Questo totale viene poi distribuito agli artisti e alle etichette musicali in base alla loro rispettiva quota di mercato. Più un brano è alto in classifica, più soldi incassa. E qui sta il problema: questo metodo di distribuzione incentiva gli utenti commerciali del servizio di streaming, cioè quelli che producono la musica, a cercare di ottenere il numero più alto possibile di ascolti (reali o simulati) invece del maggior numero possibile di ascoltatori.
La differenza può sembrare sottile, ma ha un effetto cruciale: con questo criterio pro-rata,parte dei soldi che ciascun abbonato paga per il servizio viene versata a brani che quell’abbonato non ha ascoltato e che spesso non sono stati ascoltati da nessuno, perché il loro piazzamento nella graduatoria dei compensi è stato ottenuto illecitamente usando le stream farm. Variefontistimano che questa frode porti via ai servizi di streaming circa un miliardo e duecento milioni di dollari l’anno, sui 17 miliardi e mezzo incassati dallo streaming musicale in tutto il mondo nel 2022, secondo i dati IFPI. E i vari filtri utilizzati dai servizi di streaming per identificare i brani generati dall’intelligenza artificiale e bloccarli sono imperfetti e insufficienti.
Esiste però un rimedio a questo problema, che toglierebbe di colpo l’ossigeno alle frodi di questo tipo: passare a un criterio in cui i soldi dell’abbonamento di un utente vengono dati esclusivamente agli artisti ascoltati da quell’utente. È il modello che SoundCloud, per esempio, chiama fan-powered, e che altri servizi di streaming stanno iniziando ad adottare. In questo modello non c’è un gruzzolo comune di soldi altrui accessibili ai truffatori, e quindi le stream farm e i loro brani musicali fittizi non hanno più motivo di esistere.
Il problema, insomma, è serio, e non potrà che peggiorare con il maturare dei software di generazione di musica sintetica tramite intelligenza artificiale, perché i brani falsi saranno sempre più difficili da distinguere da quelli autentici. Ma una soluzione, volendo, c’è.
Elon Musk ha
annunciato
pochi giorni fa un nuovo cambiamento di Twitter molto controverso: gli account
che non hanno avuto alcuna attività per vari anni verranno eliminati e i loro
nomi torneranno a essere disponibili.
La “purga”, per citare il termine usato da
Musk (“We’re purging accounts that have had no activity at all for several years,
so you will probably see follower count drop”), è già in corso, e stando ad alcuni
tweet di
Elon Musk risalenti a dicembre 2022 potrebbe riguardare addirittura un miliardo e mezzo di
account che per anni non hanno pubblicato tweet e non hanno fatto login (“Twitter will soon start freeing the name space of 1.5 billion accounts”;
“These are obvious account deletions with no tweets & no log in for
years”).
Ma questa decisione comporta dei problemi tecnici e umani notevoli. Utenti
Twitter di spicco, come
John Carmack,
famosissimo sviluppatore di videogiochi fondamentali come
Wolfenstein 3D, Doom e Quake, hanno
chiesto
a Musk di ripensarci:
I may be reading this incorrectly, but if you are actually deleting inactive
accounts and all their historic tweets, I would STRONGLY urge you to
reconsider.
Letting people know how many “active” followers they
have is good information, but deleting the output of inactive accounts would
be terrible. I still see people liking ten year old tweets I made, but the
threads are already often fragmented with deleted or unavailable tweets. Don’t
make it worse!
Some may scoff at any allusion between Twitter and
ancient libraries, but while the burning of the library of Alexandria was a
tragedy, scrolls and books that were tossed in the trash just because nobody
wanted to keep them are kind of worse.
Save it all!
Eliminare gli account che sono inattivi da diversi anni significa infatti
cancellare interi pezzi di storia di Internet, rendendo illeggibili tante
conversazioni importanti fatte su Twitter negli anni scorsi. Significa anche
che gli account Twitter delle persone decedute verranno brutalmente
cancellati, privando i familiari del ricordo delle parole scritte e delle
immagini pubblicate da chi non c’è più. Rischiano di sparire anche tutti i contenuti pubblicati negli
account delle persone famose non più in vita, con milioni di follower (Chadwick Boseman, per esempio).
Il problema è delicato anche per le aziende che non esistono più e per le
tante persone famose ancora in vita che hanno smesso di usare Twitter negli
anni scorsi e non vi scrivono più nulla: stando a quello che ha dichiarato
Elon Musk, i loro account verrebbero eliminati e i loro nomi utente
tornerebbero disponibili, con un evidentissimo rischio di furto di identità e di creazione
di equivoci e di impostori molto credibili.
Twitter non ha pubblicato dettagli tecnici su come e in quanto tempo verrà
effettuata questa eliminazione di massa: se si scrive all’indirizzo di mail
riservato alla stampa, ossia press@twitter.com, da
marzo scorso
si ottiene come unica risposta automatica l’emoji dell’escremento. Cosa di cui Musk sembra andare orgoglioso, visto che ha annunciato l’introduzione di questo
comportamento a marzo scorso con un apposito
tweet
(“press@twitter.com now auto responds with💩”).
Tutto quello che si sa, per ora, è che Musk ha
dichiarato
che “gli account verranno archiviati”, ma non si sa come verrà fatta
questa archiviazione, se i tweet archiviati saranno consultabili e quali
saranno gli effetti sui tweet incorporati o embeddati nelle pagine Web
per citarli.
Musk ha inoltre
aggiunto
che “è importante liberare i nomi utente abbandonati” (gli
handle
o username sono i nomi utente, ossia quelli che iniziano con il simbolo
della chiocciolina, e non vanno confusi con i display name). Si sa
anche che pochi giorni fa sono cambiate in sordina le
Norme sugli account inattivi
di Twitter:
prima
dicevano che era necessario fare almeno un login ogni sei mesi, ma adesso
dicono che bisogna “effettuare l'accesso almeno ogni 30 giorni”.
C’è insomma poca chiarezza, e la questione diventa particolarmente urgente per
i tanti casi in cui una persona è deceduta senza lasciare le credenziali di
accesso dell’account ai propri eredi, che quindi non possono neanche
effettuare un accesso periodico per tenere attivo quell’account in modo
fittizio e sottrarlo alla purga. Twitter per ora non ha annunciato nessuna opzione per
trasformare un account facendolo diventare commemorativo, come si fa da tempo
per esempio su
Facebook.
Se volete salvare dall’eliminazione un account Twitter inattivo, conviene che vi
muoviate in fretta. Se avete i codici di accesso all’account, potete
scaricarne una copia completa seguendo le
istruzioni
pubblicate sul sito di Twitter. Potete poi
caricare
questa copia su Archive.org oppure passare da
Tweetarchivist.com o
Tinysubversions.com
per renderla pubblicamente consultabile.
Se invece non avete la password di un account, potete usare dei servizi a
pagamento, come
Twtdata, per scaricare
una copia di tutti i tweet pubblici di un utente, oppure immettere
twitter.com/nomeutente nella casella Wayback Machine di
Archive.org. Questo vi permetterà di sfogliare le copie archiviate automaticamente dei tweet pubblici
di quell’utente. Non è un rimedio perfetto, ma è meglio di niente.
Prendete il vostro smartphone, se potete, e usatelo per visitare una qualsiasi
pagina del Web: noterete che a sinistra del nome del sito che state visitando
c’è l’icona di un lucchetto. Sapete spiegare che cosa significa quel lucchetto?
Se avete risposto che indica che il sito che state guardando è sicuro e
affidabile, avete sbagliato, ma consolatevi: la maggior parte della gente
sbaglia allo stesso modo. Secondo uno
studio condotto da Google
nel 2021, solo l’11% delle persone conosce il vero significato di quest’icona,
e anzi molti utenti non sanno neppure che quest’icona è cliccabile. Anche altri
studi hanno
confermato la
diffusione molto ampia di questo equivoco. Ed è per questo che Google ha
annunciato
che ai primi di settembre 2023 l’icona del lucchetto verrà sostituita da un altro
simbolo in Chrome per dispositivi Android e sparirà del tutto su Chrome per iPhone e iPad.
È un cambiamento importante, che rispecchia il cambiamento altrettanto grande
che ha coinvolto tutta Internet negli ultimi anni. L’icona del lucchetto
indica che il sito viene visitato usando una connessione cifrata e quindi i
dati che vengono scambiati non sono intercettabili o alterabili da parte di
terzi. Una funzione preziosa, per esempio, per qualunque sito che gestisca
dati personali o soldi, come i siti di acquisti o di gestione dei conti
bancari.
Questa connessione cifrata, indicata dalla sigla HTTPS, è stata introdotta
oltre vent’anni fa, ma è rimasta a lungo una rarità e veniva appunto segnalata come una
protezione aggiuntiva da tutti i browser, da Internet Explorer a Safari,
grazie all’icona del lucchetto. Ma oggi la connessione cifrata è diventata la
norma, per cui quest’icona è quasi sempre presente sullo schermo e quindi ha
perso la propria utilità informativa: anzi, secondo Google è diventata
pericolosa, perché oggigiorno anche i siti dei truffatori
offrono connessioni
cifrate e quindi fanno comparire sullo schermo il lucchetto. Lo fanno perché
contano sul fatto che moltissimi utenti penseranno che il lucchetto sia un
indicatore di autenticità o affidabilità. Ma non lo è affatto.
Se usate Google Chrome, insomma, preparatevi al fatto che tra poco l’icona del
lucchetto verrà sostituita, sui computer e sui tablet e smartphone Android, da
un simbolo molto differente: due cerchietti e due trattini, che dovrebbero
rappresentare delle regolazioni o impostazioni. L’icona sarà cliccabile per
avere maggiori informazioni sul sito visitato e sulla protezione delle
comunicazioni con quel sito, esattamente come prima. Sui tablet e smartphone
Apple, invece, l’icona sparirà completamente. E visto che Chrome è uno dei
browser più usati e quello che fa Chrome fa tendenza, è probabile che anche le
altre app di navigazione adotteranno presto un cambiamento analogo [in Firefox c’è già un’icona molto simile ma speculare, che ha una funzione differente: informa sui permessi e i cookie concessi a un sito].
Il simbolo che sostituirà il lucchetto in Google Chrome da settembre.
Preparatevi insomma per questo cambiamento a settembre, e nel frattempo
ricordate che già adesso l’icona del lucchetto, in qualsiasi browser, non
indica che un sito è autentico o fidato, ma significa soltanto che la
comunicazione con quel sito è protetta dalla crittografia. Vuol dire
che magari state comunicando con dei truffatori, ma lo state facendo in
maniera protetta. Magra consolazione, lo so: forse sarebbe meglio non comunicare
affatto con certa gente.
Sto collaborando a un’inchiesta sulle tecniche dei criminali che organizzano i cosiddetti romance scam, quei crudelissimi raggiri nei quali il truffatore contatta la vittima fingendo di essere interessato a una relazione sentimentale via Internet e poi, a distanza di qualche tempo dall’inizio della relazione, chiede soldi per risolvere un suo guaio personale (inventato), facendo partire una truffa che può costare carissimo e lascia ferite emotive profondissime.
Se siete stati vittime (maschili o femminili) di questi criminali e volete raccontare la vostra storia con il massimo anonimato, contattatemi via mail a paolo.attivissimo@rsi.ch oppure su Instagram (instagram.com/disinformatico) o Telegram (t.me/il_Disinformatico). Se conoscete qualcuno che ha subìto questi inganni e potrebbe essere disposto a parlarne per salvare altre persone, informatelo di questo mio invito. Grazie.
È disponibile subito il podcast di oggi de Il Disinformatico della
Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate presso
www.rsi.ch/ildisinformatico
(link diretto) e qui sotto.
Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.
---
[CLIP: Rumore ambientale di ufficio postale UK]
Questa storia inizia nel Regno Unito, nel 1999, anno di sofferenza e di
insonnia per tanti informatici, ma non riguarda il famigerato Millennium Bug.
È l’anno in cui le Poste britanniche iniziano ad installare un nuovo sistema
di contabilità informatizzata, denominato Horizon, destinato a gestire
i milioni di transazioni che hanno luogo ogni giorno nei numerosissimi uffici
postali del paese, che sono un servizio fondamentale per la collettività: come
avviene in tanti paesi, i cittadini li usano per fare pagamenti, riscuotere
pensioni e fare piccoli acquisti, insomma per muovere quantità notevoli di
denaro oltre che per ricevere e spedire corrispondenza.
Il signor Alan Bates è un cosiddetto sub-postmaster: dirige una delle
tantissime succursali delle Poste britanniche, quella di Craig-y-Don, nel
Galles. Un anno dopo l’introduzione del sistema Horizon, Alan Bates segnala
formalmente alle Poste che il sistema ha dei problemi: crea degli ammanchi che
in realtà non esistono. Nel frattempo ci sono già state sei condanne di altre
persone per frodi registrate dal sistema, ma secondo Bates si tratta invece di
errori del software, che è prodotto dalla Fujitsu. Le Poste britanniche negano
e nel 2003 rescindono il loro contratto con Alan Bates.
Questo è l’inizio della
storia
di uno dei più gravi casi di errore giudiziario legato all’informatica di cui
si abbia notizia. Durerà oltre vent’anni e porterà a centinaia di condanne
ingiuste, con incarcerazioni, diffamazioni, divorzi e suicidi delle persone
additate per errore, dal software e dalla giustizia, come ladri e truffatori,
ed è un caso esemplare di eccessiva fiducia nell’infallibilità dei computer
che va conosciuto per evitare che si ripeta altrove.
Benvenuti alla puntata del 5 maggio 2023 del Disinformatico, il podcast
della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane
dell’informatica. Io sono Paolo Attivissimo.
[SIGLA di apertura]
Per un computer, fare calcoli con i numeri è una funzione basilare. Niente a
che vedere con le complessità delle simulazioni di fisica o dell’intelligenza
artificiale. Sembra quindi impossibile, a prima vista, che una grande azienda
come Fujitsu e una grande organizzazione come il servizio postale di un paese
possano realizzare e implementare un sistema informatico che
sbaglia a fare i conti. Eppure è successo, e con un sistema costato un
miliardo di sterline dell’epoca, ossia circa 2 miliardi e mezzo di franchi o
euro di oggi.
Oltre 700 gestori di filiali delle poste britanniche hanno ricevuto condanne
penali per frode contabile e furto, perché il software difettoso di Fujitsu
faceva sembrare che togliessero soldi dalla cassa. Migliaia di altri gestori
hanno dovuto pagare somme ingenti alle Poste britanniche per coprire gli
ammanchi di cui erano accusati. Fra il 2000 e il 2014, le Poste britanniche
hanno portato in tribunale 736 di questi gestori: in media un gestore a
settimana. Alcuni sono finiti in carcere, addirittura durante la gravidanza,
come è successo a
Seema Misra,
condannata per furto e messa in prigione nel 2010 quando aspettava il secondo
figlio, additata dalla stampa locale come “la ladra incinta”, ma
completamente scagionata dieci anni dopo. Altri sono finiti sul lastrico e
hanno anche dovuto affrontare il disprezzo delle proprie comunità, che li
vedevano come persone disoneste che avevano violato la loro fiducia in un
ruolo così centrale. Qualcuno, tragicamente, si è tolto la vita.
Nel 2014, a distanza di quindici anni dall’introduzione del software Horizon e
cinque anni dopo che un gruppo di questi sub-postmaster che avevano
subìto gli errori di Horizon aveva costituito un’associazione per chiedere
giustizia, arrivando poi all’attenzione dei media[in particolare
ComputerWeekly]
e in tribunale, finalmente una perizia tecnica indipendente ha dimostrato che
il software sbagliava davvero, e creava davvero ammanchi di cassa inesistenti.
Le Poste britanniche hanno risposto subito che
“non esiste assolutamente alcuna prova di problemi sistematici con il
sistema informatico”
e si sono autoassolte. Il governo britannico, unico azionista delle Poste, si
è rifiutato di pagare qualunque risarcimento o indennizzo. Ci sono voluti
altri anni, e altre azioni legali costosissime per gli accusati, per arrivare
a un risarcimento e all’annullamento di centinaia di condanne infondate.
Nel 2019 la
High Court of Justice, l’Alta corte di giustizia britannica, ha confermato che il software era
difettoso ed era rimasto tale per ben dieci anni e che questi difetti potevano
creare gravi errori contabili. Questa conferma è emersa grazie alla tenace
azione legale collettiva condotta contro le Poste britanniche da Alan Bates:
la stessa persona che quasi vent’anni prima aveva cercato inutilmente di
avvisare del problema. Ma la vicenda, ancora oggi, non si è ancora conclusa.
Con i computer non si discute
La situazione dei gestori accusati di frode era disastrosa. Loro, comuni
cittadini, contro una grande e famosa azienda informatica, e soprattutto
contro il mito dell’infallibilità dei computer nel fare i conti, che in alcuni
paesi è anche un
assunto legale:* i tribunali
danno per scontato che un computer funzioni perfettamente fino a prova
contraria.
Era più facile pensare che i singoli gestori avessero prelevato soldi dalla
contabilità della loro succursale che immaginare che il costosissimo software
contenesse errori di calcolo madornali e strutturali. Le prove informatiche
degli ammanchi sembravano talmente schiaccianti che molti consulenti legali
consigliavano ai gestori incriminati di dichiararsi colpevoli di frode
contabile; in cambio le Poste britanniche avrebbero ritirato l’accusa, ben più
grave, di furto.
[CLIP: voce di Steven Murdoch]
Steven Murdoch, professore di Security
Engineering e ricercatore presso lo University College London, ha pubblicato
un
articolo
e un video nei quali
spiega come è stato possibile questo errore informatico catastrofico, citando
esempi tratti dal disastro di Horizon e presentando alcuni concetti che
valgono per qualunque grande sistema computerizzato.
Quando un sistema informatico molto grande e distribuito sul territorio deve
gestire in modo affidabile tantissimi spostamenti di denaro e poi comunicarli
a un archivio generale, questi spostamenti non sono più semplici calcoli del
tipo
"questa succursale ha venduto sette cartoline e dodici francobolli, quindi
in cassa deve essere entrato un importo equivalente".
Gli spostamenti diventano transazioni, e queste transazioni devono
rispettare quattro criteri,
che si chiamano atomicità, coerenza, isolamento e
durabilità.
[CLIP: voce di Steven Murdoch che cita l’acronimo di questi criteri, ossia
ACID]
Atomicità significa che una transazione non può essere fatta a metà: o
viene fatta completamente, oppure no, e deve avvenire una sola volta. Ma il
software Horizon spesso creava transazioni duplicate, per cui i soldi
risultavano entrati in cassa due volte ma in realtà erano materialmente
presenti una volta sola. Alcuni gestori, non riuscendo a capire la causa degli
ammanchi in cassa, li ripianavano di tasca propria per evitare guai, ma le
grandi cifre in gioco a volte erano incolmabili. Alcuni hanno addirittura
ipotecato la casa, e l’hanno persa.
Il secondo criterio, coerenza, significa che i dati della succursale
devono essere coerenti con quelli dell’archivio centrale, ma il software
Horizon sbagliava creando contraddizioni e incoerenze che facevano sembrare
che i gestori avessero commesso delle irregolarità.
E poi c’è l’isolamento: vuol dire che se una transazione
fallisce questo non deve avere effetto su altre transazioni e che se due
transazioni avvengono contemporaneamente non devono interferire tra loro. Ma
se una transazione locale avveniva mentre veniva generato il resoconto
periodico della succursale, Horizon “dimenticava” quella transazione, creando
errori di cassa.
E infine durabilità, o persistenza, che vuol dire che una volta
che una transazione è stata avviata causando un cambiamento di stato, quel
cambiamento non deve mai andare perso in nessun caso, neanche con un
blackout o un crash del computer locale. Ma Horizon,
specialmente quando era sovraccarico, perdeva dati. Per esempio, un cliente
veniva autorizzato dal software a prelevare denaro ma poi il prelievo
effettuato non veniva registrato. E così in cassa mancavano senza
giustificazione i soldi dati al cliente.
In altre parole, realizzare un sistema contabile distribuito con decine di
migliaia di succursali non è semplice, ma gli errori che venivano commessi da
Horizon erano davvero elementari. Nonostante questo, i tribunali e le Poste
britanniche hanno preferito pensare a lungo che si trattasse di un problema di
gestori disonesti. Eppure c’era un dato concreto che avrebbe dovuto
insospettire i responsabili del software: subito dopo la sua installazione, il
numero delle anomalie di cassa era aumentato enormemente. Era improbabile che
così tanti gestori fossero diventati di colpo ladri tutti insieme, ma si è
preferito dare la colpa a lungo a loro invece che sospettare un errore del
computer e del software di Fujitsu.
I log fanno fede, ma non troppo
Il problema di queste situazioni, infatti, è che per il singolo gestore, o per
il singolo utente, risulta incredibilmente difficile dimostrare che il
software sbaglia: fanno fede infatti i cosiddetti log, ossia i registri
delle attività generati dal software stesso.
Gli
atti
dei vari
processi
per la vicenda Horizon documentano casi come quello della signora Burke,
un’addetta di una succursale postale, che si è accorta un giorno che il
prelievo di denaro fatto da un cliente, di cui lei si ricordava, non risultava
nei log. La signora è riuscita a rintracciare il cliente, è andata a casa sua
e gli ha spiegato l’accaduto. Il cliente per fortuna aveva ancora la ricevuta
rilasciatagli dal software al momento del prelievo. Quel prelievo che secondo
il software non era mai avvenuto. Se non ci fosse stata quella ricevuta
cartacea, i log avrebbero inchiodato la signora, accusandola di aver rubato
dalla cassa i soldi prelevati dal cliente.
A dicembre 2019, dopo una lunga serie di azioni legali civili, le Poste
britanniche hanno deciso di ammettere i propri errori e di indennizzare ben
555 persone per un totale di 58 milioni di sterline (circa 66 milioni di
franchi o euro). Ma i tre quarti di questa cifra non finiranno nei conti delle
vittime: serviranno a pagare le loro spese legali. E Fujitsu, intanto,
continua a essere fornitore delle Poste britanniche [e anche del governo britannico, addirittura per un servizio d’emergenza].
[Se volete approfondire questa vicenda, la BBC ha una
serie di podcast
che la raccontano in dettaglio e e moltissimi articoli con testimonianze; qui sotto c’è anche un servizio del Times]
Sarà stata imparata la lezione? Speriamo di sì. Ma nel frattempo stiamo
andando sempre più verso sistemi paperless, senza carta, senza
scontrini fisici e senza bollette stampate. Viene da chiedersi come finirebbe,
oggi, la signora Burke che si è scagionata grazie allo scontrino
provvidenzialmente tenuto dal cliente.
E mentre chiudo questo podcast ho davanti a me, sullo schermo, uno
screenshot della mia banca, che mi dice che sul mio conto c’è un
bonifico uscente di circa 15.000 euro* che avevo ordinato
diciassette anni fa**,
e che all’epoca era stato eseguito ma che adesso, dopo un cambio del
software gestionale della banca, è magicamente ricomparso e ogni giorno,
altrettanto magicamente, viene rimandato di un giorno senza che io faccia
nulla.
* Il bonifico è espresso in franchi; qui parlo di “circa 15.000 euro” per facilità di comprensione dell’importo da parte del pubblico non svizzero.
** Me lo ricordo perché non faccio molti bonifici di questa entità e
soprattutto ricordo il destinatario.
Screenshot composito del bonifico fantasma.
Ho ovviamente già allertato la banca, ma nel frattempo quella transazione
fantasma è ancora lì che aleggia. Sto provando a esorcizzarla recitando
ripetutamente i mantra atomicità, coerenza, isolamento, durabilità.
Speriamo che basti.