Il 12 luglio l’Agenzia Spaziale Europea (ESA) ha formalmente terminato la
collaborazione con l’agenzia spaziale russa Roscosmos per la missione marziana
ExoMars, che finora era stata soltanto sospesa. La decisione è stata presa a
causa dell’invasione russa dell’Ucraina e del perdurare della guerra.
Josef Aschbacher, direttore generale di ESA, ha
tweetato
quanto
segue:
“On a different note, today
@ESA Council addressed the ExoMars
Rover and Surface Platform mission, acknowledging that the circumstances
which led to the suspension of the cooperation with Roscosmos – the war in
Ukraine and the resulting sanctions – continue to prevail”, aggiungendo
“As a consequence, Council mandated me to officially terminate the
currently suspended cooperation with Roscosmos on the ExoMars Rover and
Surface Platform mission. New insights on the way forward with other
partners will come at a media briefing on 20 July, details to come.”
In risposta, il suo omologo russo Dmitri Rogozin ha
annunciato
la sospensione della cooperazione russa per il braccio robotico europeo ERA
attualmente installato all’esterno della sezione russa della Stazione Spaziale
Internazionale. La dichiarazione di Rogozin è disponibile in traduzione
inglese su
Nasaspaceflight.com.
Una delle attività principali di Samantha Cristoforetti durante la sua
attività extraveicolare insieme al collega russo Oleg Artemyev, prevista per
il 21 luglio, riguarda proprio il braccio robotico europeo, che è
indispensabile per i russi se vogliono effettuare i traslochi di alcuni loro
moduli della Stazione.
Ci sono tuttavia anche varie altre attività pianificate, descritte in
dettaglio in
questa ottima serie di tweet illustrati
di Raffaele Di Palma (che aggiunge anche
altre considerazioni e fonti), per cui non è affatto chiaro se ci saranno o meno variazioni nella EVA, e
Rogozin è ormai tristemente famoso per le sue sparate drammatiche alle quali
seguono solitamente azioni reali meno teatrali e più concrete da parte
dell’agenzia spaziale che dirige. Vi terrò aggiornati se ci saranno novità
pubblicabili. Per ora pubblico queste poche righe per smorzare eventuali
congetture da parte dei media sensazionalisti.
---
2022/07/14.Eric Berger su Ars Technica
fa il punto della situazione, riassumendo le principali controversie nelle
quali Rogozin ha avuto parte di recente (non ultima, quella del rarissimo
rimprovero ufficiale della NASA, dell’agenzia spaziale canadese e dell’ESA per
l’uso russo della Stazione a scopi di propaganda politica), notando che l’agenzia di stampa russa Interfax ritiene che Rogozin verrà
rimpiazzato alla guida di Roscosmos dal vice primo ministro Yury
Borisov.
Intanto Katya Pavlushchenko segnala che Artemyev e Cristoforetti stanno
proseguendo i preparativi per l’attività extraveicolare nonostante le
dichiarazioni di Rogozin.
Pavlushchenko ha
aggiunto
che
“They trained to transfer pressurized Orlan-MKS spacesuits from the Poisk
module to the transition compartment; performed final operations after
checking the CLU ERA camera; connected medical equipment in in the Zvezda
module; and prepared the necessary tools for the EVA”.
---
2022/07/15. Sempre Katya Pavlushchenko segnala l’annuncio del Cremino
della rimozione di Rogozin dal ruolo di direttore generale di Roscosmos. Viene
sostituito da Yuri Borisov.
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle
donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere
ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico) o
altri metodi.
La prima foto scattata dal James Webb Space Telescope è stata resa pubblica
ieri sera. Eccola.
Se volete la versione alla massima risoluzione, provate
qui
(PNG, 29 MB).
È stata intitolata Webb's First Deep Field ed è l’immagine astronomica
a infrarossi più dettagliata e profonda mai realizzata: mostra un ammasso di
galassie denominato SMACS 0723, che dal punto di vista della Terra si trova nella costellazione australe del
Pesce volante (Volans). Nell’immagine lo vediamo come era 4,6 miliardi di anni fa a causa del tempo impiegato dalla sua luce per raggiungerci.
La massa complessiva di questo ammasso di galassie produce una cosiddetta
lente gravitazionale, ossia un effetto ottico simile a quello di una
lente di vetro: la luce viene piegata, in questo caso dalla gravità, e quindi
gli oggetti che stanno dietro a questo ammasso (dal nostro punto di
osservazione) hanno un aspetto visivo distorto.
Gli effetti della lente gravitazionale permettono al JWST di catturare la luce
e i dettagli di oggetti ancora più lontani. Quelli più fiochi in questa
immagine si trovano a oltre 13 miliardi di anni luce: li vediamo quindi come
erano poche centinaia di milioni di anni dopo il Big Bang. La foto dimostra
che esistevano galassie già ben formate così poco tempo (su scala cosmica)
dopo la nascita dell’universo.
L’immagine è stata ottenuta con lo strumento NIRCam del JWST con un tempo di
posa complessivo di 12 ore e mezza, combinando immagini a varie lunghezze
d’onda (va ricordato che le immagini del JWST sono in falso colore, dato che
il telescopio è sensibile alla luce infrarossa e non a quella visibile).
Altre immagini verranno presentate nei prossimi giorni già a partire da
stasera (12/7) e saranno disponibili qui. Quello che conta è che dopo decenni di preparativi il
telescopio funziona e che questo primo assaggio della sua potenza ci mostra
chiaramente quanto è inimmaginabilmente grande il cosmo: questa è una
fettina di cielo grande quanto un granello di sabbia tenuto tra le dita a
braccio teso, e contiene migliaia di galassie, ciascuna delle quali contiene
miliardi di stelle. La luce degli oggetti più lontani in questa immagine ha
viaggiato per tredici miliardi di anni prima di arrivare allo strumento che è
stato messo in orbita a un milione e mezzo di chilometri di distanza da un
gruppo di umani di vari paesi del pianeta Terra.
Siamo capaci di grandi cose. O perlomeno lo sono alcuni di noi.
Per apprezzare meglio la potenza del JWST può essere utile questo confronto,
creato da
WhatEvery1sThinking, fra la risoluzione offerta dal telescopio spaziale Hubble e quella del JWST
per la stessa porzione di cielo: la differenza è davvero notevole.
Grazie alla verifica fatta da Pgc nei commenti, segnalo che è sbagliato quello che hanno scritto molte fonti e che inizialmente avevo scritto anch’io, fidandomi: non è vero che Hubble ci ha messo settimane per ottenere la sua foto. Ci ha messo 2573 secondi, ossia circa 43 minuti, stando ai dati pubblicati qui.
È interessante notare che l’immagine di JWST è stata presentata in un evento online al
quale hanno partecipato il presidente degli Stati Uniti Joe Biden e la
vicepresidente Kamala Harris: un gesto politicamente importante che sembra
sottolineare l’attenzione dedicata alla scienza da questa amministrazione.
Speriamo che non sia solo attenzione di facciata.
Maggiori informazioni sul contenuto di questa prima immagine sono presso
ESA, NASA (anche
qui) e
PetaPixel.
BigThink, in particolare, spiega perché le stelle in primo piano hanno sei “punte”
nelle immagini di JWST.
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle
donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere
ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico) o
altri metodi.
Dopo l’imitazione di Sandra Bullock in Gravity, l’astronauta Samantha Cristoforetti, attualmente in orbita intorno alla
Terra a bordo della Stazione Spaziale Internazionale, regala ai fan di
Battlestar Galactica il cosplay di Kara Thrace, ossia Starbuck
(Scorpion nella versione italiana), e lo fa in un video trasmesso alla Fedcon,
un grande raduno di appassionati di fantascienza che si tiene annualmente in
Germania.
Trascrivo e traduco quello che dice l’astronauta dalla Cupola della Stazione:
Hello Fedcon! Sorry guys I cannot be with you this weekend, but as you can see
it's a little bit difficult for me to get there at the moment. Some of you
might remember me for wearing a Starfleet officer uniform a few years ago, up
here in space, channeling Captain Janeway and her love of coffee, which I
share. So a big shout out to all the Star Trek cast at Fedcon this weekend.
Now I'm here for my second flight, a mission called Minerva, and I thought it
would be great to remember another great space pilot. You know, I haven't seen
any Cylons up here -- yet -- but if some do show up, I know exactly who I'm
going to call: the best Viper pilot in the Colonial Fleet, Kara Thrace or
Starbuck. I even have her dog tag here. So now we finally know what happened
to her when she disappeared at the end of the show. Have a great weekend,
enjoy all the talks of my European Space Agency colleagues and friends and of
everyone else, and hopefully I will see you after my return to Earth. As we
like to say up here, see you on the other side of this space flight. So say we
all. Bye-bye!
Ciao Fedcon! Mi dispiace, gente, di non poter stare con voi questo fine
settimana, ma come vedete è piuttosto difficile per me venire lì in questo
momento. Alcuni di voi mi ricorderanno per aver indossato un’uniforme della
Flotta Stellare alcuni anni fa, qui nello spazio, emulando il Capitano Janeway
e la sua passione per il caffè, che condivido. Per cui un grande saluto a
tutto il cast di Star Trek presente alla Fedcon questa settimana. Ora sono qui
per il mio secondo volo, una missione chiamata Minerva, e ho pensato che
sarebbe stato bello ricordare un’altra grande pilota spaziale. Sapete, non ho
visto nessun Cylon quassù -- non ancora -- ma se se ne presenta qualcuno, so
esattamente chi chiamare: il migliore pilota di Viper nella Flotta Coloniale,
Kara Thrace o Scorpion. Ho anche le sue piastrine qui. Per cui ora sappiamo
finalmente cosa le è successo quando è scomparsa alla fine della serie. Fate
un buon weekend, godetevi tutte le conferenze dei miei colleghi e amici
dell’Agenzia Spaziale Europea e di tutti gli altri, e spero di vedervi dopo il
mio ritorno sulla Terra. Come amiamo dire quassù, ci vediamo dall’altra parte
di questo volo spaziale. Così diciamo tutti. Ciao!
Samantha era stata ospite della Fedcon alcuni anni fa, nel 2018, insieme a
quasi tutto il cast di Battlestar Galactica (io c’ero, e ho fatto
un po’ di foto), e va notato che l’ESA partecipa regolarmente a questa convention da
vari anni con vari ospiti, conferenze scientifiche e uno stand apposito (i
dettagli sono in
questo comunicato
dell’ESA). Sarebbe molto bello vedere anche l’ASI fare qualcosa del genere per
gli eventi italiani (e in effetti qualcosa lo fa, mi segnalano nei commenti).
L’attrice Katee Sackhoff, che interpretava Starbuck/Scorpion, ha apprezzato l’omaggio:
È disponibile subito il podcast di oggi de Il Disinformatico della
Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo
trovate presso
www.rsi.ch/ildisinformatico
(link diretto) e qui sotto.
Buon ascolto, e se vi interessano il testo e i link alle fonti di questa
puntata, sono qui sotto.
---
Prologo
[CLIP: Invention no. 1]
Siamo nel 1981, negli Stati Uniti, dove un compositore, il quarantenne David
Cope, sta subendo un classico blocco creativo. Deve scrivere la partitura di
un’opera lirica che gli è stata commissionata, ma non riesce a trovare
un’ispirazione decente. Da appassionato d’informatica, si chiede se il suo
computer possa assisterlo, imparando il suo stile e aiutandolo a prendere
delle decisioni musicali nei momenti di scarsa creatività. E così comincia a
scrivere un programma, al quale dà poi in pasto la
collezione delle cosiddette
Invenzioni
di Johannes Sebastian Bach, uno dei suoi compositori preferiti.*
* Nel podcast dico che Cope iniziò a scrivere il programma su un Apple Macintosh, basandomi su quanto scritto nell’articolo del New York Times citato in fondo a questo mio articolo, ma il Macintosh debuttò solo nel 1984; inoltre Cope stesso, in uno dei video che cito qui sotto, parla di aver usato invece un Apple IIe, che comparve nel 1983. C’è quindi un vuoto non chiaro di almeno due anni fra il momento del blocco creativo e l’uso di un computer Apple. Però Cope, sempre nello stesso video, dice che ebbe accesso a risorse informatiche universitarie, per cui è possibile che abbia iniziato lo sviluppo del programma su queste risorse per poi migrarlo a un Apple IIe un paio d’anni dopo.
[CLIP: Invention no. 2]
A questo programma dà il nome Experiments in Musical Intelligence, in
acronimo EMI, che lui pronuncia Emmy. Sette anni dopo, nel 1988, Emmy genererà
il primo di una serie di brani nello stile di Bach, come quello che state
ascoltando in sottofondo, e nel 1997 riuscirà a ingannare il pubblico durante
un esperimento all’Universita dell’Oregon a Eugene. In un confronto alla cieca
fra un brano autentico di Bach, uno scritto da un compositore contemporaneo
nello stesso stile e uno generato da Emmy, il pubblico decide che il brano di
Emmy -- quello generato dal computer -- è il vero Bach.
A 13m34s, Cope racconta la storia di Emmy e a 15m30s specifica che la versione preliminare di Emmy fu sviluppata su un Apple IIe.
Questa è la storia della musica sintetica, generata dalle intelligenze
artificiali, e di come sta cambiando il nostro modo di pensare alla musica e
di produrre musica.
Benvenuti a questa puntata del Disinformatico, il podcast della
Radiotelevisione Svizzera dedicato alle notizie e alle storie strane
dell’informatica. Io sono Paolo Attivissimo.
[SIGLA di apertura]
Il programma Emmy di David Cope non è il primo del suo genere: l’idea della
musica generata tramite software risale a più di sessant’anni fa, visto che
già nel 1957 era stata realizzata la prima partitura generata tramite
calcolatore. Era stata intitolata
Illiac Suite, in onore del computer ILLIAC-1 presso la University of Illinois a
Urbana-Champaign, programmato dai professori Lejaren Hiller e Leonard Isacsson
della stessa università. Qui sentiamo un brano di quella partitura, eseguita
però da strumentisti in carne e ossa.
[CLIP: Illiac-1]
Nel 1965, l’inventore
Ray Kurzweil aveva
presentato alla TV americana un pezzo per pianoforte generato da un computer,
costruito e programmato da lui, che era in grado di riconoscere gli schemi
presenti nelle composizioni preesistenti e usarli per creare nuove melodie.
All’epoca Ray Kurzweil aveva diciassette anni.
[CLIP: Kurzweil]
Negli anni successivi, Ray Kurzweil rivoluzionerà il riconoscimento ottico dei
caratteri, la sintesi vocale, il riconoscimento vocale e gli strumenti
elettronici a tastiera, e scusate se è poco. Oggi lavora a Google.
C’erano stati degli esperimenti ancora precedenti negli anni Cinquanta, ma
riguardavano la riproduzione di musica tramite computer: il matematico
Alan Turing, uno dei massimi pionieri dell’informatica, noto soprattutto per
la decrittazione dei codici delle comunicazioni militari naziste durante la
Seconda Guerra Mondiale, era riuscito a far riprodurre a uno degli enormi,
primitivi computer dell’epoca dei brani musicali.
Questo
che state per ascoltare è uno spezzone della registrazione più antica di
musica generata da computer di cui si abbia conoscenza: risale al 1951 ed è
incisa su un disco di acetato che si trova negli archivi della BBC. Dopo
l’inno nazionale e una canzoncina per bambini, il computer si cimenta in
In the Mood di Glenn Miller.
[CLIP:
In the Mood. Notate la voce femminile che ride e commenta la registrazione mentre dà
istruzioni]
Ma questa è pura e semplice riproduzione di musica esistente, appunto:
quello che fa Emmy a partire dagli anni Ottanta, invece, è generazione,
o se preferite un termine più controverso, creazione
di musica.
Negli anni Novanta si comincia a sperimentare anche la generazione tramite
computer dei testi delle canzoni. E lo fa, in particolare, un artista che non
farete fatica a riconoscere dalla voce.
[CLIP: Verbasizer]
È David Bowie, che
spiega
che nella produzione del’album Outside del 1995 usa un PowerBook di
Apple sul quale gira un programma, sviluppato da lui e chiamato
Verbasizer, che genera frasi a caso dalle quali lui poi prende
ispirazione, in particolare per il brano
Hallo Spaceboy.
Da allora molti artisti hanno esplorato la composizione assistita da
intelligenze artificiali: per esempio, nel 2016 il progetto di ricerca
Flow Machines della Sony, che
stava tentando di sviluppare algoritmi che catturassero e riproducessero gli
stili musicali, ha presentato Daddy’s Car, una canzone nello stile dei
Beatles.
[CLIP: Daddy's Car]
Lo stile beatlesiano è abbastanza azzeccato, ma il risultato è un mix
abbastanza insoddisfacente di cliché.
Due anni più tardi, nel 2018, lo stesso progetto di Flow Machines ha creato
insieme all’artista musicale
Skygge e un vasto numero di collaboratori
l’album Hello, World, che viene considerato il primo album pop composto insieme a un’intelligenza
artificiale. I progressi si fanno sentire.
E ci sono applicazioni come AIVA, acronimo
di Artificial Intelligence Virtual Artist, che creano colonne sonore
usando l’intelligenza artificiale, anche qui con risultati decisamente
notevoli:
[CLIP: I Am AI (Variation)]
La ricerca galoppa, insomma, ma sorprendentemente uno dei maggiori ostacoli
per chi lavora in questo campo non è la potenza di calcolo: è il copyright,
che obbliga a usare come corpus di addestramento soltanto brani
liberamente utilizzabili. Questo porta a situazioni surreali, come per esempio
i ricercatori costretti a lavorare solo su musica folcloristica finlandese
perché la Finlandia ha meticolosamente catalogato, indicizzato e reso
pubblicamente disponibile un ampio e dettagliatissimo
archivio di
questo tipo di musica. Ma se si prendono i brani musicali dalle classifiche
per darli in pasto a un sistema di machine learning che generi altri
brani dello stesso tipo, si rischia di inciampare nelle complicatissime leggi
sul diritto d’autore, che oltretutto sono differenti nei vari paesi.
Nonostante questa limitazione, l’uso dell’intelligenza artificiale nella
musica continua, sia come aiuto per gli artisti in cerca di nuove idee, sia
come produzione completamente autonoma, perché mai come oggi c’è fame di
musica.
Serve infatti musica nei videogiochi; serve musica nei video promozionali
aziendali; e serve musica per i podcast e per i video degli YouTuber, che
vivono con l’incubo di trovarsi bannati o demonetizzati perché il
sistema automatico di riconoscimento della musica di YouTube si è accorto che
un brano che si sente in un loro video è sotto copyright. Serve insomma tanta
musica, serve subito, e deve costare poco. E non ci sono compositori
sufficienti.
Sono nate così aziende come Amper,
Endel o
Mubert, che permettono di selezionare un
genere e una durata e poi modificare la bozza generata dall’intelligenza
artificiale fino a ottenere il prodotto desiderato, che può essere poi
utilizzato con una licenza che mette al riparo da contestazioni di copyright.
[CLIP: Mubert (ascoltabile solo nel podcast)]
Questo brano, per esempio, l’ho generato io con Mubert in mezzo minuto, senza
alcuna competenza musicale: ho semplicemente scelto la categoria, il
mood
e la durata. Non sarà un capolavoro, ma se devo semplicemente metterlo come
sottofondo per animare un video di compleanno su Youtube senza problemi di
copyright è più che sufficiente.
C’è anche chi si spinge oltre, come appunto Endel, immaginando sottofondi
musicali generati in tempo reale basandosi sulle condizioni meteo, sulle
pulsazioni cardiache, per accompagnarci nell’attività fisica, nello studio e
nel relax. Immaginate la vostra vita, ma con una colonna sonora continua,
ritagliata su misura per voi.
Tutto questo non vuol dire che la musica creata dalle persone sia a rischio di
estinzione e che assisteremo alla rivolta degli artisti musicali contro
l’informatica, come negli anni Settanta i chitarristi se la prendevano con i
sintetizzatori: anzi, delegare alle macchine questi sottofondi e questa musica
strettamente commerciale permette agli artisti di esplorare nuove strade,
magari usando proprio l’intelligenza artificiale per ottenerne suggerimenti
che altrimenti non riceverebbero, un po’ come giocare a scacchi contro un
computer aiuta a migliorare la propria tecnica di gioco oppure nello stesso
modo in cui un programma di traduzione assistita toglie al traduttore il
lavoro ripetitivo e gli permette di concentrarsi sulla fase creativa.
Flow Machines in funzione (contenuto non presente nel podcast)
Ma ci saranno anche nuove sfide legali: le leggi sul copyright non sono state
concepite per un mondo nel quale esistono programmi capaci di comporre musica
sintetica praticamente indistinguibile da quella dell’artista originale, un
po’come i deepfake ma per l’audio.
Se qualcuno darà in pasto a un’intelligenza artificiale, per esempio, tutte le
innumerevoli registrazioni della voce di Paul McCartney o di Billie Eilish, e
ne tirerà fuori canzoni di successo senza usarne campioni ma semplicemente
imitandone algoritmicamente il timbro e lo stile, i proprietari di quelle voci
potranno rivendicare diritti o addirittura vietarne la diffusione? In fin dei
conti, la stessa cosa avviene già oggi con le persone che imitano le
celebrità.
E comunque avrà senso una rivendicazione del genere quando questi software
saranno sui nostri computer o smartphone, per cui non ci sarà nessuna
possibilità di controllo globale delle eventuali violazioni? Oppure ci
troveremo con i controlli di copyright obbligati sui nostri smartphone, come
avviene già per i lettori Blu-ray?
Ma questa è davvero un’altra storia, magari da raccontare con un sottofondo di
musica folcloristica finlandese.
Le prime notizie ufficiose erano state
pubblicate
ad aprile scorso, ma adesso è ufficiale: Samantha Cristoforetti effettuerà
un’attività extraveicolare (EVA, Extra-Vehicular Activity, ossia una
“passeggiata spaziale”, insieme al cosmonauta russo Oleg Artemyev. L’attività
è denominata VKD54 (dalle iniziali di
vnekorabelnaya deyatelnost, “attività extraveicolare”) ed è prevista
per il 21 luglio prossimo. Verrà effettuata indossando tute spaziali russe
Orlan e si svolgerà
all’esterno della sezione russa della Stazione Spaziale Internazionale.
Samantha Cristoforetti con una tuta per EVA russa. Fonte:
Michal Vaclavik.
I compiti previsti per Artemyev e Cristoforetti includono del lavoro al
braccio robotico europeo ERA (la struttura articolata visibile nella foto qui
sopra) e il lancio di dieci nanosatelliti (due Tsiolkovsky-Ryazan e otto
YUZGU-55).
L’escursione potrebbe durare fino a sette ore e verrà trasmessa integralmente
da NASA TV in streaming a partire dalle 9.30 (Eastern time) del 21
luglio, mezz’ora prima dell’inizio formale dell’EVA, previsto per le 10 ET (in
Europa centrale saranno le 16).
Oleg Artemyev e Samantha Cristoforetti a bordo della Stazione.
La
programmazione di NASA TV
dice attualmente quanto segue:
“July 21, Thursday - 9:30 a.m. – Coverage of the International Space
Station Russian/European Space Agency spacewalk; spacewalk scheduled to
begin at 10 a.m. EDT; Artemyev and Cristoforetti (may last up to 7 hour)
(All Channels)”.
Vi terrò aggiornati su eventuali dirette ESA / ASI e su come seguire l’EVA via
Internet. Sarebbe molto bello se l’EVA coincidesse con un sorvolo dell’Italia;
se fosse notturno, si potrebbe tentare l’osservazione da terra, come già
avvenuto per altre EVA; se fosse diurno, dallo spazio potrebbero arrivare
immagini davvero speciali.
---
2022/07/04 16:30. L’amico Biagio Cimini mi segnala che secondo il sito
HeavensAbove la Stazione sorvolerà l’Italia il 21 luglio alle 21.40. Se l’EVA
dura le ore previste, Samantha dovrebbe “volare” nel vuoto sopra l’Italia ed
essere visibile da terra con un buon telescopio.
---
2022/07/11 9:25. Raffaele di Palma ha preparato un dettagliatissimo articolo in italiano che spiega tutte le fasi dell’EVA.
Il 30 giugno scorso Tio.ch ha pubblicato un’intervista
(copia permanente) a Candida Mammoliti
(Centro Ufologico Svizzera Italiana) nella quale la signora Mammoliti ha
attribuito a me e al Cicap Ticino un’operazione di discredito e ridicolo ai
suoi danni e un rifiuto di confronto. Questo è quanto ha dichiarato
l’intervistata:
«Dal 2007 siamo screditati dalla maggior parte dei mass media. Cioè da quando
il Comitato Italiano per il Controllo delle Affermazioni sulle Pseudoscienze
(CICAP) - di cui Paolo Attivissimo era presidente della sezione ticinese - è
arrivato in Ticino, ci denigrano e ridicolizzano per quanto riguarda gli
avvistamenti e le nostre teorie sui cerchi nel grano, solo perché non siamo
scienziati e non hanno mai accettato il confronto con noi».
Non è la prima volta che la signora Mammoliti fa dichiarazioni pubbliche di
questo genere verso di me e verso il Cicap Ticino, del quale sono stato
presidente per qualche tempo. Ricordo una sua
intervista a Ticinolive.ch
(oggi non più reperibile online, perlomeno a questo link) di gennaio 2012, nella quale esprimeva
grosso modo la stessa posizione:
“da 6-7 anni una disinformazione caotica ci mette in difficoltà, come anche il
Cicap, il Comitato italiano per il controllo delle affermazioni sul
paranormale – fondato da Piero Angela per motivi privati, che ha preso piede
anche in Ticino con Paolo Attivissimo quale presidente. Cosa controlli il
Cicap in verità rimane poco chiaro, ma siamo stati ripetutamente ed
ingiustamente attaccati e diffamati dai suoi membri, senza che ci
conoscessero.”
In quell’occasione, vista l’accusa di diffamazione, il Cicap Ticino ed io avevamo inviato una netta replica, che è ancora disponibile (copia permanente).
Anche questa volta ho chiesto di replicare. Stamattina Tio.ch ha
pubblicato
(copia permanente) integralmente la mia
replica, inviata via mail. Ne riporto qui il testo:
«Apprezzo la generosa valutazione della signora Mammoliti dei miei presunti
poteri di influenzare addirittura "la maggior parte dei mass media" nei suoi
confronti, ma fortunatamente non corrisponde alla realtà. Sia io sia il
Cicap Ticino abbiamo semplicemente documentato e raccontato quanto avveniva
nei convegni pubblici organizzati dal CUSI, consigliando anzi esplicitamente
di parteciparvi per constatare di persona i metodi e i criteri usati per
affrontare un argomento nobile e delicato come la ricerca di altre civiltà
nell’universo.»
«Mi permetto di correggere quanto dichiarato dalla signora Mammoliti sul
presunto rifiuto di confronto: io e il Cicap Ticino siamo sempre stati
aperti al dialogo sereno, come dimostrato fra l’altro dal piacevole
dibattito con la signora stessa alla trasmissione Contesto della RSI alcuni
anni fa. È passato molto tempo, per cui l’esperienza forse andrebbe
ripetuta. La mia porta è sempre aperta.»
«In fondo stiamo dalla stessa parte: siamo entrambi affascinati dall’idea
della vita intelligente al di fuori della Terra. Semplicemente la
affrontiamo con metodi e punti di vista differenti. Personalmente la ritengo
un’ipotesi assolutamente ragionevole, ma in attesa di prove. E credo che
queste prove debbano essere straordinariamente robuste, proprio perché il
tema è straordinario. Purtroppo la ricerca ufologica è spesso fuorviata da
tre cose: fenomeni insoliti che hanno spiegazioni normali (spesso
affascinanti), entusiasmi in buona fede (se sento rumore di zoccoli, non
devo pensare subito a un unicorno), e anche, purtroppo, molti imbroglioni
che fanno soldi fabbricando falsi avvistamenti. Io e il Cicap Ticino,
insieme ad alcune associazioni ufologiche, offriamo liberamente a tutti
alcune tecniche e informazioni che possono aiutare a smascherare e scartare
questi fenomeni ingannevoli, per vedere meglio quello che resta. Credo che
questa scrematura sia nell’interesse di tutti, “scettici” e “credenti”.
Parliamone insieme.»
Il dibattito televisivo al quale mi riferisco è quello del 29 settembre 2010, nel programma RSI Con_testo, purtroppo non più disponibile al link originale. Se qualcuno riuscisse a recuperarne un eventuale link aggiornato, me lo segnali nei commenti.
È disponibile subito il podcast di oggi de Il Disinformatico della
Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate presso
www.rsi.ch/ildisinformatico
(link diretto) e qui sotto.
C’è una puntata della celebre serie distopica Black Mirror, intitolata
Be Right Back
(Torna da me nella versione italiana), nella quale una donna subisce la
perdita drammatica del proprio partner in un incidente.
Al funerale, un’amica le parla di un servizio online che raccoglie tutte le
informazioni pubblicate sui social network dal defunto e tutti i suoi messaggi
vocali e video e da lì crea un avatar che sullo schermo dello smartphone parla
esattamente come lui e ha il suo stesso aspetto.
Inizialmente inorridita, la donna rifiuta, ma poi… succedono cose che non
racconto per non guastare la storia a chi non ha ancora visto questa puntata.
Dovrebbe essere chiaro a tutti che le storie di Black Mirror sono
esempi di cosa non
fare con la tecnologia, ma a quanto pare qualcuno ad Amazon ha scambiato
questa serie per un manuale di istruzioni.
Pochi giorni fa, infatti, Rohit Prasad, capo ricercatore dell’intelligenza
artificiale di Alexa, il celebre assistente vocale di Amazon, ha presentato in
una conferenza pubblica una versione di Alexa che è in grado di imitare le
voci delle persone, e l’esempio che fa sembra proprio preso di peso da
Black Mirror.
“In questi tempi di pandemia perdurante” dice
“così tanti di noi hanno perduto qualcuno che amiamo. Anche se
l’intelligenza artificiale non può eliminare quel dolore della perdita, può
certamente far durare i loro ricordi.”
A questo punto Prasad mostra un video nel quale un giovane ragazzo chiede ad
Alexa di fare in modo che la nonna, che non c’è più, gli finisca di leggere
Il Mago di Oz.
Alexa risponde “OK” con la sua solita voce, ma poi cambia tono e recita
con la voce della nonna del ragazzo.
Il video è già posizionato al momento giusto, a 1:02:38.
Già così la cosa può evocare sentimenti contrastanti, ma quello che dice poi
Prasad è ancora più inquietante: la voce della nonna è stata ricreata partendo
da meno di un minuto di una sua conversazione. Non servono più ampi e
lunghi campioni di voce registrati accuratamente in uno studio.
Si potrebbe discutere sull’impatto emotivo di questa nuova tecnologia e
chiedersi se sentire per casa la voce di una persona amata che non c’è più,
ricreata artificialmente da un programma, sia davvero una consolazione o una
forma di prolugamento del dolore. Ma c’è una questione molto più concreta, che
va affrontata subito, mentre questa capacità di imitazione non è ancora
disponibile al pubblico: se è possibile imitare facilmente la voce di una
persona in questo modo per ricrearne la presenza, allora è possibile farlo,
per esempio, anche per sbloccare il suo smartphone bloccato dal riconoscimento
vocale o per scavalcare le cosiddette password vocali usate da alcune banche e
persino dal Fisco britannico, che fino a pochi anni fa
chiedeva
ai contribuenti di identificarsi al telefono dicendo la frase
“my voice is my password”, ossia
“la mia voce è la mia password”.
No, non funziona così. Se la tua voce la possono imitare tutti, la tua
password è di tutti.
Il problema è che Amazon non è l’unica azienda in grado di replicare
realisticamente la voce di una persona specifica, la potenza di calcolo e il
campione audio necessari diventano sempre più piccoli, e non sembra esserci
alcun modo di impedire a malintenzionati di registrare la nostra voce.
Forse è il caso di cominciare a smettere di usare sistemi di sicurezza basati
sul riconoscimento vocale. E magari di passare del tempo a chiacchierare con
la nonna, finché si può.
È un po’ di tempo che si parla poco di spyware, ossia dei software che
permettono di tracciare o spiare una persona a sua insaputa. Google ha
pubblicato un
rapporto
del proprio gruppo di analisi delle minacce (Threat Analysis Group) che
fa il punto della situazione sulle aziende che fabbricano spyware e lo vendono
ad operatori sostenuti da vari governi. I ricercatori segnalano che sette
delle nove vulnerabilità più gravi, le cosiddette zero day,scoperte da loro nel 2021 sono state sviluppate da fornitori commerciali
e vendute a questi operatori governativi.
Una volta tanto si fanno i nomi e i cognomi e viene presentato un caso
specifico e molto vicino a noi: quello di RCS Labs, un rivenditore italiano al
quale gli esperti di Google attribuiscono queste capacità di sorveglianza
sofisticata, indicando di aver anche identificato
“vittime situate in Italia e in Kazakistan”.
Secondo il rapporto, gli attacchi di questo spyware iniziavano con un link
univoco che veniva inviato alla vittima. Se la vittima vi cliccava sopra,
veniva portata a una specifica pagina web, www.fb-techsupport[.]com,
che sembrava essere il Centro assistenza di Facebook e cercava di convincere
la vittima a scaricare e installare su Android o iOS un programma che si
spacciava per un software di ripristino dell’account sospeso su Whatsapp.
La pagina era scritta in ottimo italiano, e diceva di scaricare e installare,
“seguendo le indicazioni sullo schermo, l’applicazione per la verifica e il
ripristino del tuo account sospeso. Al termine della procedura riceverai un
SMS di conferma sblocco.”
Fin qui niente di speciale, tutto sommato: si tratta di una tecnica classica,
anche se eseguita molto bene. Ma i ricercatori di Google aggiungono un
dettaglio parecchio inquietante: secondo loro, in alcuni casi l’aggressore ha
lavorato insieme al fornitore di accesso Internet della vittima per
disabilitare la sua connettività cellulare. Una volta disabilitata,
l’aggressore mandava via SMS il link di invito a scaricare l’app che avrebbe,
a suo dire, riattivato la connettività cellulare.* Siamo insomma ben lontani
dal crimine organizzato: qui c’è di mezzo, almeno in alcuni casi, la
collaborazione degli operatori telefonici o dei fornitori di accesso a
Internet.
* Nel rapporto originale viene detto soltanto quanto segue:
“In some cases, we believe the actors worked with the target’s ISP to
disable the target’s mobile data connectivity. Once disabled, the attacker
would send a malicious link via SMS asking the target to install an
application to recover their data connectivity.”
Giustamente nei commenti qui sotto si osserva che se la connettività era
disabilitata, non si capisce come la vittima potesse connettersi a Internet
per scaricare l’app-trappola. Forse la connettività era solo limitata
parzialmente, in modo da non far funzionare Internet in generale ma lasciare
aperta la connessione verso il sito che ospitava il malware.
Per eludere le protezioni degli iPhone, che normalmente possono installare
soltanto app approvate e presenti nello store ufficiale di Apple, gli
aggressori usavano il metodo di installazione che si adopera per le app
proprietarie, quello descritto nelle apposite
pagine pubbliche
di Apple. Non solo: gli aggressori davano all’app un certificato di firma
digitale appartenente a una società approvata da Apple, la 3-1 Mobile Srl, per
cui l’app ostile veniva installata sull’iPhone senza alcuna resistenza da
parte delle protezioni Apple, e poi procedeva a estrarre file dal dispositivo,
per esempio il database di WhatsApp.
Per le vittime Android c’era una procedura più semplice: l’app ostile fingeva
di essere della Samsung e veniva installata chiedendo all’utente di abilitare
l’installazione da sorgenti sconosciute, cosa che fanno molti utenti Android.
Il sito degli aggressori non esiste più e gli aggiornamenti di iOS e di
Android hanno bloccato questo spyware, ma il problema di fondo rimane: come
dicono i ricercatori di Google, questi rivenditori di malware
“rendono possibile la proliferazione di strumenti di hacking pericolosi e
forniscono armi a governi che non sarebbero in grado di sviluppare queste
capacità internamente.”
I ricercatori aggiungono che
“Anche se l’uso delle tecnologie di sorveglianza può essere legale in base
a leggi nazionali o internazionali, queste tecnologie vengono spesso usate
dai governi per scopi che sono il contrario dei valori democratici: per
prendere di mira dissidenti, giornalisti, attivisti dei diritti umani e
politici di partiti d’opposizione.”
Ed è per questo che Google, anche se in questo caso si tratta chiaramente di
malware di tipo governativo, interviene e rende pubblici attacchi come questo.
Capita sempre più spesso di fare riunioni e incontri in videoconferenza, a
distanza, e anche i colloqui di lavoro, per selezionare candidati per un
impiego, stanno vivendo la stessa tendenza ad avvenire online invece che di
persona. Ma l’FBI ha pubblicato un
avvertimento che
segnala un aumento parallelo dell’uso di dati personali rubati e di
deepfake, ossia di immagini video false generate in tempo reale, nell’ambito di
questi colloqui. In pratica il candidato si spaccia per qualcun altro e
mostra, durante il colloquio, immagini di un volto che non è il suo o fa
sentire la voce di qualcun altro.
I colloqui di lavoro falsificati, dice l’agenzia statunitense, riguardano
offerte per impieghi che verranno svolti da remoto o da casa, per cui è
possibile che il datore di lavoro non incontrerà mai di persona il lavoratore.
In particolare, questi colloqui deepfake avvengono quando il lavoro
riguarda il settore informatico e darà quindi accesso a dati personali di
clienti, dati finanziari, database aziendali o informazioni tecniche
confidenziali.
Questo suggerisce che il movente di queste falsificazioni sia l’accesso
fraudolento a questi dati preziosi, spesso a scopo di spionaggio o sabotaggio,
come
segnalato
anche da altre agenzie governative statunitensi a maggio scorso.
Alcuni stati, secondo queste segnalazioni, stanno formando numerosi
informatici che poi fingono di risiedere in paesi fidati usando VPN e
documenti d’identificazione rubati, usando vari software per alterare voce e
video per sembrare affidabili e rassicuranti nei colloqui di selezione fatti
attraverso le normali piattaforme di offerta e ricerca di lavoro, e si fanno
assumere dalle aziende per poi trafugarne dati o facilitare intrusioni da
parte di loro complici.
L’FBI, le altre agenzie statunitensi e gli esperti del settore raccomandano
alcune semplici verifiche. I dettagli della storia personale del candidato,
come per esempio gli studi svolti, il luogo dove dichiara di risiedere, sono
coerenti? Cosa succede se lo si chiama a sorpresa in videochiamata? Come
reagisce alla proposta di spedire un plico all’indirizzo che ha dichiarato sui
documenti che ha fornito? Se si tratta di un impostore, queste situazioni lo
metteranno in seria difficoltà.
Le autorità e gli esperti segnalano anche alcuni trucchi per riconoscere un
deepfake
video o fotografico durante una videochiamata: per esempio, i gesti e i
movimenti delle labbra della persona che si vede in video non corrisponderanno
completamente al parlato. Oppure suoni inattesi, come un colpo di tosse o uno
starnuto, non verranno falsificati correttamente dai programmi per creare
deepfake in tempo reale.
L’MIT Media Lab ha creato una
guida
e un sito, Detect Fakes, che
consente a ciascuno di valutare la propria capacità di riconoscere immagini
personali falsificate e consiglia altri trucchi per rivelare una
falsificazione: per esempio, guardare le guance e la fronte della persona che
appare in video, perché se la pelle di queste zone è troppo liscia o troppo
rugosa rispetto al resto del volto è probabile che si tratti di un falso. Si
possono anche guardare le ombre della scena, che spesso nei deepfake non sono
coerenti, oppure gli occhiali, che spesso hanno riflessi eccessivi, o ancora
la barba o le basette o i nei, che i deepfake sbagliano facilmente. Un altro
trucco è guardare fissa la persona negli occhi per vedere se sbatte le
palpebre o no: anche questo è un errore frequente dei software che alterano il
volto.
Cimentatevi, insomma, con il test dell’MIT Media Lab, che trovate presso
detectfakes.media.mit.edu. Fra l’altro, saper riconoscere un video falso potrebbe servirvi anche fuori
dell’ambito di lavoro, dato che anche molti truffatori online in campo privato
usano queste stesse tecniche per fingere di essere persone seducenti e
corteggiatrici per poi spingere le vittime a mostrarsi in video in
atteggiamenti estremamente ricattabili.