Cinquant’anni fa, sulla Luna c’erano due uomini che esploravano la superficie
selenica viaggiando su un’auto elettrica. Ora, nel 2021, il fotorestauratore
Andy Saunders ha elaborato digitalmente con maestria le fotografie e le
riprese cinematografiche originali di quella missione, Apollo 15, per
recuperare le foto sottoesposte e creare panoramiche assemblando le fotografie
e le riprese fatte con una cinepresa 16mm su pellicola a colori.
Il risultato è notevolissimo:
La Hadley Rille vista durante la discesa verso la Luna. Immagine composita
realizzata da
Andy Saunders
partendo dalle riprese in 16 mm effettuate attraverso il finestrino destro del
LM. Il puntino rosso indica il sito di atterraggio.
Sapevate che il Modulo Lunare di questa missione atterrò storto e danneggiò
l’ugello del suo motore di discesa? Per fortuna ne usava uno separato per la
risalita. Ora possiamo vedere bene il danno.
Il danno all’ugello del motore di discesa del Modulo Lunare. Fotografia
restaurata da Andy Saunders.
Il sito di allunaggio del Modulo Lunare di Apollo 15. Si nota la forte
pendenza del veicolo. Fotografia composita, restaurata da
Andy Saunders.
L’automobile lunare, a circa 5 km dal punto di allunaggio. Il LM è a malapena
visibile in lontananza. Fotografia composita, restaurata da Andy Saunders.
La foto composita precedente, con l’indicazione della Hadley Rille e
dell’ubicazione del Modulo Lunare. Fotografia composita restaurata da
Andy Saunders.
Inoltre le immagini della sonda Lunar Reconnaissance Orbiter sono state
rielaborate per ottenere un modello 3D digitale della zona di allunaggio di
Apollo 15, con indicati i principali luoghi interessati
dall’esplorazione da parte degli astronauti.
Two hours after
#Apollo15
landed on the Moon, astronaut Dave Scott stood up in the lunar lander's
open-top hatch to get a 360-degree view of the surrounding landscape. It's
like peeking up through the sun roof of your car!
https://t.co/aur7OQQYclpic.twitter.com/VyaCmoKmq8
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle
donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere
ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico) o
altri metodi.
Questo non è un articolo vero e proprio: sono solo appunti sparsi, che
pubblico perché ho il presentimento che questa questione sarà importante, per gli
appassionati di Doctor Who e di fantascienza in generale, ma non solo,
nei mesi e negli anni che verranno.
C’è una lamentela, da parte di alcuni media ultraconservatori
britannici molto popolari (che hanno i loro corrispettivi anche in altri
paesi, Svizzera e Italia comprese), secondo la quale le nuove serie TV e i film recenti avrebbero
troppi personaggi femminili e storie troppo incentrate sui temi
sociali come la discriminazione, i cambiamenti climatici e il consumismo.
Questo presunto eccesso viene definito sommariamente e sprezzantemente
“cultura
woke”.
L’autore di fantascienza Charlie Stross ha segnalato una
serie di tweet di Alan McWhan
che risponde con citazioni precise a questa critica. Doctor Who, come
Star Trek e tanta altra fantascienza, non è improvvisamente
woke: non è diventato attento adesso ai grandi temi. Lo è sempre
stato.
Riporto qui i tweet originali, con le fonti delle citazioni trovate gentilmente da Gabriella Cordone Lisiero con l’aiuto di molti whoviani: se non conoscete la serie o non sapete della
polemica, ignoratela pure. Scusatemi se non mi fermo a spiegarla, ma
richiederebbe pagine su pagine di premesse.
“#DoctorWho
has gone woke!” What, the Doctor Who whose very first story literally said
“we’re all stronger if we work together”? (An Unearthly Child - La ragazza extraterrestre)
The Doctor Who whose second story literally said “pacifism is a wonderful
ideal… but you’ve gotta keep punching Nazis to get there”? (The Daleks - I Dalek)
The
#DoctorWho
whose MVP for the first two seasons was a female, middle aged History
teacher at a bog standard British school, who absolutely irrefutably taught
The Doctor we know today the moral code by which the character lives? (si riferisce a Barbara Wright, per esempio nella serie di puntate The Aztecs - Gli aztechi)
The Doctor Who that was railing against profiteering business interests that
were destroying the planet by the time its second season started, in
1964? (Planet of Giants - Il pianeta dei giganti)
The
#DoctorWho
that was giving a disproportionate number of roles to French, German,
Belgian, and other non-British characters by 1967, including some of the
first speaking parts for non-white actors in the history of British
television? (per citarne uno su tutti: The Reign of Terror - Il regno del terrore, ambientato durante la Rivoluzione Francese)
The
#DoctorWho
that was putting feminism and equality front and centre by the time it
introduced astrophysicist Zoe Herriot by 1969, multiple degree holding
Cambridge graduate Liz Shaw by 1970, and gutsy investigative journalist
Sarah-Jane Smith by 1974? (rispettivamente, The Wheel in Space, Spearhead from Space e The Time Warrior)
The Doctor Who that was raising the issue of global warming by 1968? (The Green Death)
The Doctor Who that was warning about non-biodegradable plastics before most
people were even aware of the existence of plastics? (Spearhead from Space e Terror of the Autons)
THAT Doctor Who has “gone woke”?!
Behave.
Doctor Who had already taught me about global warming, corporate greed (The Invasion),
over-zealous tax regimes, sexism (tutte le compagne classiche ma soprattutto Liz, Sarah Jane e Ace), fascism and SO much more by the time I
left primary school in 1982 that any accusations of “wokism” by
card-carrying right wing arseholes like Kelvin MacKenzie 40 years later
result in little more than a roll of the eyes and a disparaging, “Have you
ever actually WATCHED
#DoctorWho?” (per il “fascism”: Genesis of the Daleks, con dialoghi come “You see, if someone who knew the future pointed out a child to you
and told you that that child would grow up totally evil, to be a
ruthless dictator who would destroy millions of lives, could you then
kill that child?”)
Gabriella ha preparato la traduzione:
#DoctorWho
è diventato "woke"! Che cosa? Il Doctor Who la cui primissima storia
letteralmente ci ha insegnato che "siamo più forti se lavoriamo
insieme"?
Il
Doctor Who la cui seconda storia diceva letteralmente "il pacifismo è
un ideale meraviglioso... ma bisogna continuare a combattere i Nazisti
per arrivarci"?
Il
#DoctorWho che per le prime due stagioni aveva il suo protagonista più
importante in una donna di mezza età, insegnante di storia in una
normale e scadente scuola britannica. Donna che in modo assolutamente
inconfutabile insegnò al Dottore che conosciamo oggi il codice morale
che guida la vita del personaggio?
Il
Doctor Who che, quando è cominciata la sua seconda stagione nel 1964,
inveiva contro gli interessi commerciali profittatori che distruggono il
pianeta?
Il
#DoctorWho che fin dal 1967 ha dato un numero sproporzionato di ruoli a
personaggi francesi, tedeschi, belgi e altri non britannici, comprese
alcune delle prime parti con battute per attori non bianchi nella storia
della televisione britannica?
Il
#DoctorWho che ha messo al centro della scena il femminismo e
l'equaglianza quando ha presentato l'astrofisica Zoe Herriot nel 1969,
la laureata a Cambridge in molteplici materie Liz Shaw nel 1970 e la
coraggiosa giornalista investigativa Sarah-Jane Smith nel 1974?
Il Doctor Who che aveva sollevato il problema del riscaldamento globale nel 1968?
Il
Doctor Who che metteva in guardia dalla plastica non biodegradabile
prima che la maggior parte della gente fosse consapevole dell'esistenza
della plastica?
QUEL Doctor Who è “diventato woke”?!
Ma per favore.
Doctor
Who mi aveva parlato di riscaldamento globale, avidità aziendale,
regimi fiscali troppo zelanti, sessismo, fascismo e MOLTO di più prima
che io lasciassi le elementari nel 1982, e qualsiasi accusa di essere
"woke" da parte di idioti che se ne accorgono quarant'anni dopo mi fa
solo alzare gli occhi al cielo dicendo "Ma avete mai davvero GUARDATO #DoctorWho?”
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle
donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere
ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico) o
altri metodi.
Qualche giorno fa ho comprato per pochi euro due di questi portachiavi con la
dicitura “PULL TO EJECT” tipica dei seggiolini eiettabili degli aerei.
L’ho fatto per una burla, ma anche per una ragione di sicurezza molto seria.
Come molte auto della sua categoria, anche TESS (la mia Tesla Model S di
seconda mano) ha un sistema elettrico di bloccaggio delle portiere posteriori.
Non è quello della sicurezza bambini: è proprio una chiusura elettrica
aggiuntiva a quella meccanica. La sicurezza bambini è un comando separato.
Quando si tira la maniglia interna per aprire, questo bloccaggio si disinnesta
elettricamente. In caso di incidente, i sistemi di sicurezza lo disattivano,
sempre elettricamente, e consentono l’apertura puramente meccanica (Model S Emergency Response Guide, pagina 23:
“When an airbag inflates, Model S unlocks all doors, unlocks the trunk, and
extends all door handles”). Ma che succede se l'impianto elettrico è danneggiato da una collisione o è
guasto per qualche motivo? Se la batteria a 12V dell’auto è a terra o non fa
contatto, che si fa?
Se non c’è alimentazione elettrica, il bloccaggio elettrico non si disattiva e
la portiera non si può aprire dall'interno, neppure se si tira la maniglia.
Brrr. Così prima di comprare l’auto ho sfogliato il manuale alla ricerca del
sistema meccanico d’emergenza. Ho trovato la spiegazione a pagina 8. Il
sistema c’è, ma è un po’ nascosto. Lo vedete?
No, vero? Provate a trovarlo in quest’altra foto:
Sì. È quella linguettina nera su sfondo nero sotto la seduta del sedile
posteriore. Una di quelle cose che non troverai mai quando ti serve, se non
sai già benissimo dov‘è. E che magari non sai neanche che esiste, visto che
quando sei seduto sui sedili posteriori non la puoi nemmeno vedere e di solito
non te ne parla nessuno. Oltretutto normalmente è coperta da una linguetta di
moquette.
Qui sopra la vedete illuminata perché ho piazzato appositamente una lampada
per scattare la fotografia. Normalmente è praticamente invisibile.
Per sbloccare le portiere bisogna trovarla e tirarla: un cavo collegato alla
linguetta aziona meccanicamente il meccanismo di blocco e lo disinnesta. Il
manuale lo spiega così (qui mostro la versione inglese, ma c’è anche la
versione italiana):
Sottolineo, per maggiore chiarezza, che questo sblocco meccanico serve
soltanto in un’emergenza tale per cui l’impianto elettrico è completamente
andato. Normalmente, infatti, per aprire la portiera si tira semplicemente la
maniglia interna (se non è attiva la sicurezza bambini). Questo attiva lo
sblocco elettrico.
Questa situazione non mi piace per nulla, così ho deciso di rendere un po’ più
evidente questa misera linguetta agganciandoci qualcosa di ben visibile: quel
“PULL TO EJECT” giallo e nero. Qui vedete la manopolina dell’altro
sedile posteriore, alla quale ho già applicato il portachiavi. Ho provato e
funziona: tirando il portachiavi la portiera si sblocca.
In questo modo, quando sale a bordo qualcuno che trasporto su TESS per la
prima volta, gli posso fare il briefing di sicurezza come sugli aerei:
“Per i passeggeri della seconda fila, si prega di notare la linguetta
gialla e nera con scritto “PULL TO EJECT” situata sotto il sedile fra le
vostre gambe. In caso di emergenza, tirate con forza la linguetta...". Poi posso aspettare la reazione perplessa di chi si chiede se davvero le
Tesla, notoriamente ipertecnologiche, abbiano anche il seggiolino eiettabile e
sdrammatizzare la situazione intanto che insegno una precauzione di sicurezza
importante.
Seriamente: tante auto hanno questi blocchi elettrici. Sarebbe opportuno che
fosse ben indicato dove si trova lo sblocco meccanico d’emergenza, che il
conducente si informasse sulla sua collocazione e ne informasse anche i
passeggeri. Fateci un pensierino. Se avete un'auto di questo genere, scoprite
dove sta lo sblocco. Ammesso che ci sia. Prudenza.
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle
donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere
ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico) o
altri metodi.
È disponibile subito il podcast di oggi de
Il Disinformatico della Rete Tre della Radiotelevisione Svizzera,
condotto dal sottoscritto: lo trovate presso
www.rsi.ch/ildisinformatico
(link diretto). Questa è l’edizione estiva, dedicata a un singolo argomento.
Buon ascolto, e se vi interessano il testo e i link alle fonti della storia di
oggi, sono qui sotto!
Nota: la parola CLIP nel testo che segue non è
un segnaposto in attesa che io inserisca dei contenuti. Indica
semplicemente che in quel punto del podcast c’è uno spezzone audio. Se volete sentirlo, ascoltate il podcast oppure guardate il video che ho incluso nella trascrizione.
Correzione: Nel podcast ho detto che la voce di HAL in inglese era di Claude Rains, ma mi sono maldestramente sbagliato: era di Douglas Rain (Claude Rains era l’interprete del classico L’uomo invisibile del 1933). Ho corretto nel testo qui sotto. Grazie a chi mi ha segnalato lo sbaglio nei commenti. Mi scuso per l’errore.
----
(CLIP: HAL)
È una delle scene più celebri e raggelanti del film di Stanley Kubrick 2001: Odissea nello spazio. A bordo dell’astronave Discovery, in viaggio verso il pianeta Giove, il supercomputer HAL 9000 chiude inesorabilmente le comunicazioni con l’unico astronauta sopravvissuto, David Bowman. Gli altri membri dell’equipaggio sono stati uccisi proprio da HAL.
Oggi l’idea di comunicare a voce con un computer ci sembra ovvia e banale, grazie agli assistenti vocali, ma all’epoca in cui Kubrick girò questo capolavoro della fantascienza, mezzo secolo fa, era appunto un concetto da fantascienza. I computer, anzi i calcolatori di quell’epoca, enormi e costosissimi, comunicavano solitamente stampando i propri messaggi o mostrandoli su un monitor. Farli parlare sembrava impensabile.
Questa è la storia di come abbiamo insegnato ai computer a parlare con naturalezza. Ora che ci siamo riusciti, saremo capaci anche di farli smettere?
---
La tecnica che consente di riprodurre artificialmente la voce umana si chiama sintesi vocale. Non è particolarmente nuova: uno dei primissimi esempi di sintesi vocale elettrica è VODER, che risale addirittura al 1939. Sì, avete capito bene: all’inizio della Seconda Guerra Mondiale c’erano già voci sintetiche. Ecco VODER che tenta a fatica di dire OK e simulare una risata.
(CLIP: VODER)
La demo, ben più lunga, dalla quale ho tratto solo l’“OK” e la “risata”.
Certo, VODER non era un granché; le sue parole erano quasi incomprensibili, e serviva il lavoro di un operatore umano per fargliele generare. Ma stabiliva e dimostrava un principio importantissimo: era possibile creare una voce umana artificiale.
Una ventina d’anni più tardi, nel 1961, John Larry Kelly Jr e Carol Lockbaum, del centro di ricerca statunitense Bell Labs, usarono un computer IBM 7094 per sintetizzare una voce umana un po’ più intellegibile, che addirittura cantava:
(CLIP: Daisy 1961)
Questa dimostrazione, che oggi fa sorridere per quanto è primitiva, ebbe però all'epoca un effetto sensazionale e colpì in particolare un certo amico di John Larry Kelly: lo scrittore di fantascienza Arthur C. Clarke, coautore insieme a Stanley Kubrick della sceneggiatura di 2001: Odissea nello spazio. Nel film c’è una celebre scena in cui HAL viene disattivato progressivamente dall’astronauta sopravvissuto. Nell’edizione italiana, HAL canta Giro giro tondo.
(CLIP: HAL canta in italiano)
Ma nella versione originale del film il computer canta un’altra canzone:
(CLIP: HAL canta in inglese)
Sì, è la stessa melodia, intitolata Daisy Bell, usata in quella storica demo informatica di sintesi vocale del 1961: una citazione nascosta e discreta, voluta da Arthur Clarke, che purtroppo si è persa nel doppiaggio.
Nel film, fra l’altro, non furono usate voci sintetiche per il computer: in originale la voce di HAL fu recitata dall’attore Douglas Rain, mentre in italiano fu creata dall’attore e doppiatore Gianfranco Bellini.
La cadenza fredda e inumana della voce di HAL, e in generale delle voci robotiche e sintetiche usate in tanti film e telefilm classici di fantascienza, è basata sul fatto che all’epoca la sintesi vocale reale era proprio così: incapace di rappresentare tutte le sfumature ed emozioni di una voce umana.
Per poterlo fare, un computer doveva prima di tutto imparare a leggere ad alta voce automaticamente qualunque testo, senza l’aiuto caso per caso di un operatore umano come in passato. Questo è il cosiddetto text-to-speech, ossia “dal testo al parlato”, il cui primo esempio fu creato da Noriko Umeda in Giappone nel 1968.
Pochi anni dopo, nel 1976, Raymond Kurzweil presentò una delle prime applicazioni pratiche di queste ricerche: un assistente di lettura per ciechi e ipovedenti. In questi dispositivi, uno scanner riconosceva le lettere stampate nei libri e generava i suoni vocali corrispondenti, permettendo quindi la lettura di qualunque testo comune anche a chi normalmente era escluso da questa possibilità. Era un sistema molto costoso e ingombrante, che potevano permettersi solo alcune biblioteche, ma era un inizio.
La prima sintesi vocale in italiano si chiamava MUSA e nacque nel 1975 presso i laboratori CSELT.
(CLIP: Musa)
Anche in questo caso non manca la dimostrazione di... talento canoro, che per MUSA arrivò tre anni più tardi, ma arrivò:
(CLIP: musa-framartino)
Pochi anni dopo arrivarono i sistemi di sintesi vocale portatili, integrati in personal computer come i Macintosh e gli Amiga, ridando la possibilità di parlare a chi l’aveva persa a seguito di trauma o malattia, come il celebre fisico britannico Stephen Hawking, la cui voce sintetica divenne il suo marchio caratteristico, anche se in realtà gli dava un accento fortemente americano perché era basata sui campioni della voce di uno dei pionieri del settore, Dennis Klatt.
(CLIP: Hawking)
La sintesi vocale, insomma, arriva da molto lontano nel tempo, ma avrete notato che tutti questi esempi hanno un difetto: sono a malapena comprensibili, oltre che privi di cadenza, naturalezza ed emozione. Funzionano, sono utili, ma non sono certo piacevoli da usare.
Confrontate questi campioni del passato con una sintesi vocale odierna, quella di Siri di Apple:
(CLIP: Siri risponde alla richiesta “Cantami una canzone”)
Non è perfetta, ma è molto più chiara e naturale. Cosa è cambiato? Fondamentalmente tre cose: la potenza di calcolo, la quantità di memoria, e un trucco.
I suoni di base di una lingua, i cosiddetti fonemi, sono relativamente pochi, una cinquantina in italiano, ma non basta generarli in sequenza in una sorta di collage di pezzetti: nel linguaggio naturale, infatti, vengono pronunciati in modo differente all’inizio o alla fine di una parola, dopo una pausa, o in una domanda, o per sottolineare un concetto.
Per una sintesi vocale naturale serve quindi un archivio enorme di tutti questi suoni elementari nelle varie situazioni, e questo archivio richiede tanta memoria digitale. Serve poi anche una grande potenza di calcolo per scegliere rapidissimamente, istante per istante e caso per caso, quale campione vocale usare.
Il problema è generare questi archivi: occorre prendere una persona che abbia la voce giusta e farle registrare decine di ore di parlato di tutti i generi, da cui estrarre poi i vari campioni. In altre parole, mentre i sistemi di sintesi vocale del passato cercavano di generare i suoni da zero, quelli di oggi “barano”, per così dire, prendendo dei suoni umani reali e poi scomponendoli e riassemblandoli. E c’è anche un altro trucco: le frasi ed espressioni più ricorrenti sono preregistrate in blocco.
(CLIP: Siri risponde alla richiesta “Dimmi uno scioglilingua”)
La prossima frontiera della sintesi vocale è il deepfake sonoro: l’imitazione perfetta, indistinguibile dall’originale, della voce di una specifica persona. Per ottenerla servono tantissimi campioni della voce da imitare: ma se si tratta di una celebrità o di una persona che parla spesso in pubblico, questo non è difficile.
La novità è che come per i deepfake visivi, che permettono di creare videoclip molto realistici nei quali il volto di una persona viene sostituito con quello di un altro, il lavoro di selezione e montaggio dei campioni di suono viene fatto automaticamente dal software, che funziona su un comune computer domestico.
Questo vuol dire che sta diventando sempre più facile creare duplicati perfetti della voce di qualcuno, e che quindi non potremo più fidarci di quello che sentiamo se non abbiamo davanti a noi in carne e ossa la persona che sta parlando.
Non è teoria: a maggio del 2021 è stato segnalato un caso di tentato crimine informatico messo a segno usando la sintesi vocale. I criminali hanno imitato al telefono la voce di un direttore d’azienda e gli hanno fatto dire di effettuare un pagamento di 243.000 dollari per chiudere una trattativa con un cliente. L’assistente si è fidato perché ha creduto di riconoscere la voce del suo direttore.
È una frontiera inquietante. Fra l’altro, probabilmente non ve ne siete accorti, ma in realtà una frase di questo podcast non l’ho pronunciata io, ma uno di questi generatori di deepfake vocali.
No, non è vero. Almeno per ora. Ma vi è venuto un brivido, vero?
Il rickroll è una tradizione di Internet nata nell’ormai informaticamente lontano 2007: qualcuno annuncia qualcosa di clamoroso, desiderabile o sensazionale, linkando una fonte dove trovarla, e tutti i creduloni e curiosi cliccano sul link.
Ma il link porta a un video di Rick Astley che canta Never Gonna Give You Up, un successo planetario del 1987. A volte al posto di Rick Astley si usa la canzone russa Trololo.
È una burla innocua, nonostante le sue origini nei bassifondi crudeli e feroci di Internet, nei forum di 4chan. Qualcuno ti chiede le foto sexy della celebrità del momento alla quale tiene esageratamente, o dove scaricare una versione craccata di un videogioco o un film attesissimo, e tu rispondi con il link a Rick Astley. Il rickroll ha tante forme: un codice QR su una finta multa, un malware dimostrativo per iPhone, o la versione per Zoom. Nel 2008 lo fece direttamente YouTube: il primo d’aprile, tutti i video nella prima pagina di YouTube portavano a Never Gonna Give You Up. Persino la Casa Bianca fece un rickroll, nel 2011.
Pochi giorni fa il video della canzone di Rick Astley che si usa per i rickroll (questo) ha raggiunto una tappa importante: un miliardo di visualizzazioni su YouTube. Molte saranno presumibilmente dovute alla tradizione del rickroll.
Comprensibilmente, molti si chiedono se così tante visualizzazioni abbiano fruttato qualche soldo al cantante. Nel 2010, quando il video aveva “solo” alcuni milioni di visualizzazioni, aveva incassato da questo canale soltanto dodici dollari, perché non è l’autore della canzone e quindi riceve soltanto i diritti da esecutore o interprete, non quelli ben più sostanziosi che spettano ai compositori. Se i compensi da allora sono proporzionali, forse l’ex cantante può aver incassato una decina di migliaia di dollari. In un Ask Me Anything di Reddit del 2016 (grazie a @Tigro724791 per averlo trovato), Astley disse di non sapere con precisione quanto abbia ricevuto dal video in sé, ma aggiunge che grazie al rickroll è stato pagato dalla Virgin per fare uno spot e da altri per partecipare ad altri eventi, per cui qualcosina, insomma, questa strana forma di nuova notorietà gli ha fruttato.
La storia completa del rickroll è pubblicata su Melmagazine. Beh, quasi completa: manca un episodio minore, quello in cui io tentai un rickroll e andò in maniera terribilmente imbarazzante davanti alle telecamere.
29 luglio 1981. All’epoca, quarant’anni fa, ero un giovane DJ in una radio
privata di Pavia (Pavia Radio City). Insieme a un collega, Ezio P (che non so
se vuole essere ricordato in questa vicenda), ci inventammo una diretta
radiofonica per coprire a modo nostro la cerimonia del matrimonio del principe
Carlo e di Lady Diana Spencer.
Volutamente non preparammo nulla: non sapevamo nulla dei nomi, dei ruoli o del
programma della cerimonia. L’idea era di riempire due ore con il vuoto
pneumatico delle più banali ovvietà, come era già consuetudine allora durante
le dirette-fiume degli eventi. Descrivemmo alla radio lo sfarzoso, surreale
matrimonio inventandoci notizie come la minaccia dei terroristi dell'IRA di
attaccare il cocchio con uno spandiletame (o un bazooka, non ricordo bene).
Avevamo come "corrispondenti da Londra" la giornalista Susan Calvin (citazione
asimoviana) e il suo collega Patrick Cargill (uno dei più perfidi Numero Due
de Il Prigioniero e popolare all’epoca in Italia per il telefilm comico
Caro papà). Erano inventati e inesistenti; facevamo finta di tradurre al volo le loro
corrispondenze. In realtà guardavamo le immagini alla TV, trasmesse dalla Rai,
l’unica che allora poteva trasmettere in diretta nazionale (l’interconnessione
doveva ancora arrivare, tre anni più tardi).
Eravamo insomma semplicemente due scemi che prendevano in giro la pompa magna
e l'assurdità del clamore mediatico pazzesco intorno al matrimonio dei membri
della famiglia reale.
Faccio davvero fatica a credere che siano passati quarant’anni. Da
qualche parte devo avere ancora l'audiocassetta con la registrazione. Un
giorno, quando il mondo sarà pronto, la pubblicherò.
Questa è una delle poche foto che ho di quel periodo (ne ho altre, ma
ritraggono anche persone che nel frattempo hanno acquisito una reputazione da
difendere). Il foulard era contro il mal di gola. Negli anni successivi la
radio ebbe attrezzature migliori (e anche DJ migliori del sottoscritto).
Sì, avevo i capelli ricci, e li odiavo così tanto che dopo un po’ smisero di
arricciarsi.
Facemmo il programma e io poi tornai a casa. Mia madre, serissima, mi chiese
se era stato poi acciuffato il terrorista dell'IRA. Aveva ascoltato la mia
diretta :-)
---
Aggiornamento 1: ho ritrovato in archivio il file audio, riversato
previdentemente da un’audiocassetta nel 2013. Che faccio? Ho lanciato un
sondaggio su Twitter. Finora il 73% mi propone di metterlo online, il 19% suggerisce di metterlo
all’asta per beneficenza e l’8% chiede di distruggerlo per salvarci tutti :-)
---
Aggiornamento 2: A furor di popolo (si fa per dire), ecco il file
audio. Non è completo: mancano le “interviste esclusive” a Carlo e Diana (in
realtà recitate da due persone con voci manifestamente finte e accenti
tutt’altro che britannici). Ho inoltre tagliato i brani musicali scelti dal
“tecnico del suono” John Williams per non incorrere nell’ira dei controlli sul
copyright di YouTube.
Siccome non voglio che questo mio antico momento di scempio radiofonico causi
solo danni agli animi sensibili, vi propongo una piccola sfida: se qualcuno ha
lo stomaco di ascoltarselo tutto e dirmi come si chiama l’inesistente
“terrorista dell’IRA” scrivendone nome e cognome esatti nei commenti qui
sotto, donerò 50 euro a
Medici senza frontiere, come già
fatto in
altre occasioni. Se volete fare altrettanto, ovviamente, siete i benvenuti.
Aggiornamento 3: Siete stati velocissimi! Ho mantenuto subito la
promessa:
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle
donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere
ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico) o
altri metodi.
È inutile far finta di niente: i razzi sono da sempre considerati dei simboli
fallici, visto anche il loro ruolo nel prestigio internazionale degli stati e
dei privati che li fabbricano. Ma il vettore New Shepard di Jeff Bezos,
che pochi giorni fa ha trasportato i suoi primi passeggeri per un breve volo
suborbitale, è particolarmente fallico. Come mai?
Lo spiega molto bene, e con una punta di ironia, Scott Manley nel video qui
sotto (in inglese) da 9:33 in poi: la forma è derivata da considerazioni
tecniche ben precise.
La prima considerazione è il diametro: i vettori devono essere trasportabili
su strada per ridurre i costi, per cui non devono essere eccessivamente larghi
(il progetto Apollo, con i dieci metri di diametro del vettore
Saturn V, aggirò il problema usando chiatte e aerei speciali, con costi
enormi; lo stesso fece lo Shuttle). Il diametro massimo praticabile su strada
è circa quattro metri, considerate le curve e i margini di sicurezza.
Anche SpaceX, con il suo Falcon 9, si ferma grosso modo a questo
diametro. Il Falcon Heavy usa tre vettori affiancati, derivati dal Falcon 9, che vengono trasportati individualmente e assemblati al centro di lancio. Per la Starship, invece, SpaceX aggira il problema costruendone gli esemplari
direttamente nel punto di lancio.
La seconda considerazione è l’altezza, che insieme al diametro e alla capsula (sulla quale
torno tra poco) conferisce al razzo le sue proporzioni davvero simili a quelle
di un pene eretto. Di solito i razzi sono più snelli e allungati, ma nel caso
di New Shepard il vettore deve soltanto compiere un salto suborbitale,
per cui non c’è bisogno di tantissimo propellente e quindi non servono
serbatoi enormi. Visto che il diametro e il volume necessario sono parametri fissi, l’altezza relativamente modesta e la forma poco slanciata sono semplici conseguenze di questi valori.
Poi c’è la forma della capsula, con la sua sagoma stondata e il suo diametro
maggiore di quello del vettore: due cose piuttosto insolite che accentuano la
somiglianza genitale. Anche qui, la forma risultante deriva solo da questioni
tecniche.
Infatti anche la capsula va trasportata su strada, per cui non può avere un diametro
superiore ai quattro metri circa, ed è necessario massimizzare il suo volume
interno per dare spazio ai passeggeri. Inoltre deve avere una forma che la
renda aerodinamicamente efficiente nel fendere
l’aria durante la salita ma anche aerodinamicamente stabile durante la ricaduta verso la Terra, prima
dell’apertura dei paracadute. Furono considerate numerose forme, fino a trovare
quella ottimale... che però somiglia moltissimo a una parte anatomica ben
precisa.
Il diametro maggiorato della capsula e della sommità del razzo rispetto al resto del veicolo è dovuto ancora
una volta a esigenze aerodinamiche: in cima al vettore, infatti, c’è un anello
che serve per stabilizzarne la discesa, un po’ come avviene con le bombe e le
loro alette, spesso accompagnate da un anello.
L’anello di New Shepard ha infatti quattro pinne stabilizzatrici retrattili e otto alette di
frenata aerodinamica, anch’esse retrattili e integrate nell’anello, come si vede bene in questa foto.
Il diametro della capsula, superiore a quello del vettore, fa sì che durante l’ascesa l’anello sia coperto dalla capsula stessa e quindi non causi interferenze aerodinamiche; una volta sganciata la capsula, invece, l’anello sporge ampiamente dalla sagoma cilindrica del vettore e quindi può agire bene come apparato di stabilizzazione.
Certo, come nota anche Scott Manley, è presumibile che a un certo punto qualcuno, in qualche meeting aziendale di Blue Origin, abbia fatto notare che stavano sviluppando un razzo a forma di enorme pisello, e che questa forma era però il risultato ineluttabile della fisica e dell’ingegneria. La forma segue la funzione.
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle
donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere
ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico) o
altri metodi.
Esattamente cinquant’anni fa al momento in cui scrivo queste righe, tre uomini
erano in viaggio verso la Luna per una delle missioni spaziali più
spettacolari di sempre. Con la missione Apollo 15, la NASA non solo
ambiva a far arrivare due dei tre astronauti sulla Luna, in diretta TV
mondiale, come nelle missioni precedenti: voleva anche farli viaggiare sulla
superficie lunare usando un’automobile. Mentre Al Worden restò in orbita
lunare, lanciando un satellite e svolgendo esperimenti scientifici e mappature
fotografiche di altissima precisione della Luna, Dave Scott e Jim Irwin furono
i primi esseri umani a viaggiare su un’auto al di fuori della Terra.
E che automobile. Interamente elettrica, con quattro motori indipendenti e
quattro ruote sterzanti, comandata tramite un joystick, capace di portare due
persone in tuta spaziale e i loro attrezzi, dotata di navigatore (basato su un
sistema di sensori inerziali) e di telecamera e trasmettitore TV e soprattutto
leggerissima (200 kg sulla Terra) e ripiegabile per poter essere
alloggiata in uno scomparto del Modulo Lunare, il veicolo di allunaggio. Si
chiamava Lunar Roving Vehicle, e in questo debutto trasportò gli
astronauti per una trentina di chilometri, allargando enormemente il loro
raggio esplorativo, visto che prima erano costretti a camminare dentro le loro
rigidissime tute spaziali (leggermente migliorate per questa missione rispetto
alle precedenti).
Foto AS15-85-11471 - JSC scan.
Animazione della procedura di estrazione del Rover.
Da 1:35 in poi, la diretta TV (accelerata per brevità) dell’estrazione del
Rover dal modulo lunare di Apollo 15. Credit:
Amy Shira Teitel.
Apollo 15, la prima delle missioni più strettamente scientifiche del
progetto lunare statunitense, partì dalla Florida il 26 luglio 1971 a bordo di
un vettore Saturn V. Il modulo lunare Falcon, con Scott e Irwin,
atterrò sulla Luna il 30/7/1971, alle 22:16:29 UTC, vicino al
Mare Imbrium (Mare delle Piogge).
Scott e Irwin effettuarono tre escursioni lunari in aggiunta a una
stand-up EVA: Scott, in tuta spaziale, si sporse all’esterno dal
condotto di attracco del modulo alla sommità del veicolo e perlustrò
visivamente e fotograficamente la zona circostante per circa mezz’ora.
I due astronauti restarono sulla Luna per due giorni, 18 ore e 54 minuti,
raccogliendo 77,3 kg di rocce lunari e scattando 1151 fotografie in aggiunta
alle trasmissioni televisive in diretta (incluso il decollo del LM) e alle
riprese cinematografiche su pellicola. Nel loro bottino geologico ci fu la
Genesis Rock, una delle pietre lunari più antiche mai recuperate (oltre
4 miliardi di anni).
Jim Irwin accanto all’LRV. Foto a colori elaborata da Planetary Society per rimuovere le crocette di riferimento.
Questa è la missione durante la quale Scott lasciò cadere simultaneamente una
piuma e un martello per confermare l’ipotesi di Galileo sulla caduta identica
dei corpi nel vuoto e collocò di nascosto sulla Luna una statuetta, il
Fallen Astronaut, per commemorare gli astronauti statunitensi e i
cosmonauti sovietici caduti dei quali si era a conoscenza all’epoca.
Come se tutto questo non bastasse, durante il viaggio di ritorno Al Worden
fece la prima passeggiata spaziale nello spazio profondo, fra Terra e Luna,
per recuperare le pellicole delle fotocamere automatiche di ricognizione.
La missione si concluse il 7 agosto 1971 con un ammaraggio nell’Oceano
Pacifico dopo 12 giorni, 7 ore e 11 minuti.
Se l’argomento vi interessa, l’amico Gianluca Atti, collezionista di cose
lunari e spaziali, e il sottoscritto vi offrono
Apollo 15 Timeline, un sito-blog interamente in italiano che contiene una cronologia e un
racconto della missione, con tante foto di altissima qualità, video
restaurati, e trascrizioni e scansioni degli articoli comparsi all’epoca sui
giornali e sulle riviste in Italia. Rileggere quella prosa e pensare con quali
mezzi fu possibile scriverla è un tuffo nella nostalgia e anche un confronto
impietoso con il giornalismo divulgativo di oggi.
Consiglio anche gli
articoli di Astronautinews
(in italiano) dedicati alla missione, scritti oggi come se fossero redatti da
un viaggiatore nel tempo.
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle
donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere
ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico) o
altri metodi.
Sfogliando un catalogo online mi è venuta spontanea una riflessione. Le automobili vengono tassate in base alle loro emissioni di CO2. I processi produttivi sono gravati da una tassa sull’anidride carbonica generata; idem i combustibili per riscaldamento. È la cosiddetta carbon tax. In Svizzera, per esempio, questa tassa incide per circa 30 centesimi di franco su ogni litro di olio da riscaldamento e aumenterà nel 2022.
La preoccupazione per i cambiamenti climatici è incentrata in gran parte sull’aumento della CO2 nell’atmosfera, che produce un effetto serra che aumenta la temperatura media planetaria. Dovremmo, insomma, fare di tutto per evitare di produrre e rilasciare CO2.
In queste condizioni, non è assurdo che invece la CO2 venga addirittura messa in vendita in bombolette, oltretutto per un’applicazione decisamente superflua come gasare l’acqua da bere? Ci sveniamo per ridurre le emissioni di anidride carbonica e poi andiamo a comprarla e la rilasciamo in atmosfera? Pare un controsenso.
Non ho ancora una risposta. Voi cosa riuscite a scoprire?
Aggiornamento (2021/08/02): Grazie a tutti i commentatori per gli spunti e le informazioni. In estrema sintesi, la quantità di CO2 usata per i gasatori è minuscola rispetto alle altri fonti di CO2; la CO2 utilizzata, inoltre, è spesso un sottoprodotto di processi industriali e verrebbe comunque rilasciata da questi processi, per cui viene catturata e usata dai gasatori prima di essere immessa nell’ambiente; e la gasatura dell’acqua di rubinetto riduce la produzione di bottiglie per l’acqua minerale, riducendo quindi l’inquinamento da plastica e le emissioni di CO2 causate dalla fabbricazione delle bottiglie di plastica e dal loro trasporto fino al luogo di consumo (il trasporto delle bombolette è molto più efficiente del trasporto di bottiglie piene d’acqua gassata). Ovviamente bere acqua del rubinetto non gassata è l’optimum, ma non è il caso di perdere il sonno sulle emissioni dei gasatori: conviene concentrarsi sulle emissioni causate dalle auto a carburante o dai voli in aereo.
Rilancio qui le mie asserzioni-scommessa sull’intelligenza artificiale basata solo sul riconoscimento di schemi:
Il machine learning è semplicemente un riconoscimento di schemi (pattern recognition) e non costituisce “intelligenza” in alcun senso significativo della
parola.
Il riconoscimento di schemi fallisce in maniera profondamente non umana e in
situazioni che un umano invece sa riconoscere in maniera assolutamente
banale. Questo rende difficilissimo prevedere e gestire i fallimenti del
machine learning e quindi rende pericolosa la collaborazione umano-macchina.
Qualunque sistema di guida autonoma o assistita basato esclusivamente sul
riconoscimento degli schemi è destinato a fallire in maniera imbarazzante e
potenzialmente catastrofica.
Sì, l’attuale software delle Tesla (che, ricordo, per l’ennesima volta, è un assistente di guida, non un sistema di guida autonoma) scambia la Luna, giallognola e bassa sull’orizzonte, per un impossibile semaforo giallo sospeso in cielo.
Un esempio perfetto di edge case: una situazione che si presenta molto raramente ed è assolutamente ovvia per un essere umano (che ha cognizione di come è fatto il mondo e sa che non ci sono semafori in cielo) e che pertanto difficilmente verrà contemplata nel dataset usato per addestrare il sistema di riconoscimento delle immagini.
So bene che questa versione del software è una beta e il suo uso in
strada serve proprio per addestrare la versione successiva a riconoscere
anche questi edge case, ma quanti edge case ci sono? Quanti ne dovremo scoprire prima di poter ritenere ragionevolmente di averli scoperti tutti? E ha senso pagare oggi 200 dollari al mese o 10.000 dollari una tantum per un prodotto del genere?
Finché il software di guida assistita sbaglia così, non me ne faccio niente di un assistente imbecille e di certo non sono disposto a mettere la mia vita nelle sue mani. Se avete un’auto con guida assistita, di qualunque marca, non fidatevi troppo.
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico) o altri metodi.