Secondo il bollettino NASA più recente (30 settembre), Artemis I non partirà prima del periodo fra il 12 e il 27 novembre.
Teams at NASA’s Kennedy Space Center in Florida conducted initial inspections Friday to assess potential impacts from Hurricane Ian. There was no damage to Artemis flight hardware, and facilities are in good shape with only minor water intrusion identified in a few locations. Next, engineers will extend access platforms around the Space Launch System rocket and Orion spacecraft inside the Vehicle Assembly Building (VAB) to prepare for additional inspections and start preparation for the next launch attempt, including retesting the flight termination system.
As teams complete post-storm recovery operations, NASA has determined it will focus Artemis I launch planning efforts on the launch period that opens Nov. 12 and closes Nov. 27. Over the coming days, managers will assess the scope of work to perform while in the VAB and identify a specific date for the next launch attempt. Focusing efforts on the November launch period allows time for employees at Kennedy to address the needs of their families and homes after the storm and for teams to identify additional checkouts needed before returning to the pad for launch.
È disponibile subito il podcast di oggi de Il Disinformatico della
Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo
trovate presso
www.rsi.ch/ildisinformatico
(link diretto) e qui sotto.
DALL-E, uno dei più popolari e potenti generatori di immagini basati sull’intelligenza artificiale, è da pochi giorni finalmente accessibile a chiunque.
Dal 28 settembre scorso, infatti, è stata disattivata la restrizione che consentiva l’uso di questo generatore solo a chi riceveva un ambitissimo invito.
Ora è sufficiente creare un account gratuito sul sito di DALL-E e dare un indirizzo di mail e un numero di telefonino sul quale ricevere un codice di autorizzazione. Fatto questo, si può cominciare subito a usare questo software per generare immagini in alta risoluzione (1024x1024 pixel, come quella qui accanto) semplicemente digitando una descrizione testuale in inglese (“two cats holding hands, photoreal”). Potete provare anche con l’italiano; a volte funziona lo stesso. Più è ricca e dettagliata la descrizione, più sono belle e calzanti le immagini generate.
DALL-E consente anche il cosiddetto outpainting, ossia l’estensione del contorno di un’immagine esistente, e la modifica e combinazione di immagini.
Il servizio di base è gratuito e offre 50 generazioni per il primo mese e 15 per i mesi successivi. Se si vogliono generare altre immagini oltre a quelle incluse gratuitamente ogni mese, si possono acquistare pacchetti di 115 generazioni a 15 dollari. Vale la pena di provarlo, perché i risultati sono impressionanti e in questo caso è proprio vero che un’immagine vale mille parole di descrizione.
Lo scambaiting è l’arte informatica di prendere in giro i truffatori
online facendo leva sulla loro avidità. Questi truffatori senza scrupoli
telefonano alle persone vulnerabili spacciandosi per l’assistenza tecnica di
Microsoft o per qualche altra autorità, mettono in ansia la vittima dicendo
che il suo computer sta disseminando virus e causando danni, e si offrono di
risolvere il presunto problema. Con questa scusa entrano nel computer della
vittima e lo infettano oppure si fanno pagare per il servizio di falsa
assistenza tecnica.
Ma ci sono persone che si sostituiscono a queste vittime, chiamano i numeri di telefono dei truffatori e dialogano con loro, fingendosi ingenui e facendo perdere loro tanto tempo con mille
scuse e altrettanti pretesti: sono appunto gli scambaiter. Il termine
significa grosso modo “persona che fa da esca per un truffatore”. I
truffatori, allettati dall’idea di aver trovato una vittima da spennare, sono
disposti a sopportare enormi perdite di tempo e non si rendono conto di essere
presi in giro.
Questa tecnica riduce il tasso di efficacia dei truffatori tenendoli impegnati
invano, ma ha un difetto: anche lo scambaiter deve investire
altrettanto tempo. Per mantenersi e avere quel tempo libero, molti
scambaiter creano canali YouTube nei quali pubblicano le registrazioni
delle loro attività, che sono spesso ricche di momenti divertenti, e quindi
monetizzano attraverso le pubblicità il tempo che investono.
Uno di questi scambaiter e YouTuber, che si fa chiamare Kitboga e opera dagli Stati Uniti, dice
di aver trovato una soluzione che riduce moltissimo il tempo che deve dedicare
al contrasto dei truffatori; usare un software di intelligenza artificiale per
creare un chatbot vocale, ossia una sorta di interlocutore virtuale che
converte in testo quello che viene detto dal truffatore al telefono, ne estrae
le parole chiave e genera un testo di risposta pertinente, che viene letto e
intonato dalla sintesi vocale.
In altre parole, il truffatore dialoga con un
computer ma ha l’impressione di essere alle prese con una vittima in carne e
ossa. In questo modo il computer può passare ore a tenere in ballo il
truffatore mentre lo scambaiter fa tutt’altro.
Stando a Kitboga, che al momento non ha fornito documentazione a supporto dei
suoi video nei quali mostra la sua intelligenza artificiale all’opera, il suo
software è in grado di far perdere quantità industriali di tempo ai
truffatori, attingendo a un repertorio di scuse esasperanti, come per esempio fingere di non aver capito cosa è stato detto o chiedere insistentemente di parlare con un superiore, ed è capace di convincere i truffatori addirittura a dargli le loro coordinate bancarie. Gli imbroglioni, infatti, credono di aver a che fare con una vittima ingenua che è pronta a mandare loro dei soldi, e quindi devono fornire delle coordinate per il versamento.
Una volta ottenute le coordinate bancarie, Kitboga dice che le segnala agli esperti antifrode delle banche, che provvedono a bloccare i conti, ostacolando così le attività criminali dei truffatori. I suoi video sono divertenti, perché mostrano quanto i malviventi siano accecati dalla propria avidità e siano così ansiosi di mettere a segno il loro reato da sopportare conversazioni lunghissime ed estenuanti senza rendersi conto che stanno parlando con un programma automatico o con un burlone.
Comunque stiano le cose nel caso specifico, l’idea di creare un software di intelligenza artificiale che tenga impegnati i truffatori e riesca a farsi dare da loro le coordinate dei loro conti, per poi farli bloccare, è molto interessante e potrebbe contribuire a scoraggiare questo tipo di crimine rendendolo troppo oneroso e stressante. Perlomeno fino al momento in cui anche i truffatori si equipaggeranno con intelligenze artificiali da usare al posto dei telefonisti in carne e ossa.
Nel frattempo, queste truffe continuano a colpire vittime reali in tutto il mondo, per cui se ricevete chiamate da persone che dicono di rappresentare l’assistenza tecnica di Microsoft o di qualunque altro nome noto del settore e vi chiedono di dare dei comandi al vostro computer, non fatelo e riagganciate subito. E fate sapere anche ai vostri familiari e colleghi dell’esistenza di queste truffe, in modo che siano pronti a reagire correttamente quando verranno presi di mira dai criminali.
“No. Io sono tuo padre.” È una delle battute di dialogo più
celebri della storia del cinema, detta da Darth Vader a Luke Skywalker ne
L’Impero colpisce ancora e resa memorabile dal doppiaggio italiano di
Massimo Foschi.
La voce originale inglese di Darth Vader (“No. I am your father”) è però quella inconfondibile di James Earl Jones. E ora, grazie
all’intelligenza artificiale che sta facendo capolino davvero dappertutto in
questo periodo, quella voce diventerà immortale.
James Earl Jones, infatti, ha ormai 91 anni, e la sua voce è cambiata
parecchio rispetto a quella che aveva all’epoca della trilogia originale di
Star Wars, fra il 1977 e il 1983. Però il personaggio di Darth Vader è
uno dei protagonisti di una nuova miniserie televisiva, Obi-Wan Kenobi,
ambientata nello stesso periodo di quella trilogia, e quindi è nato il problema di
dargli una voce conforme a quell’originale.
Nel doppiaggio in lingua italiana siamo abbastanza abituati al fatto che
questo problema si risolve semplicemente cambiando doppiatore, e infatti nella
nuova miniserie Darth Vader è doppiato da Luca Ward.
Niente da dire per quanto riguarda recitazione e qualità di entrambi i doppiatori, ma rimane il fatto che sono due voci differenti. Nell’originale, invece, sono uguali.
La voce inglese di Darth Vader nella nuova miniserie è infatti ancora quella di James Earl Jones; anzi, è quella del giovane James Earl Jones.
Questo risultato, secondo quanto pubblicato dalla rivista Vanity Fair, è stato ottenuto grazie al fatto che le battute del personaggio non sono
state recitate direttamente da Jones di persona, ma sono state pronunciate da una
voce sintetica basata su quella di Jones.
Un software di intelligenza
artificiale ha infatti analizzato un vasto campionario di registrazioni
giovanili dell’attore e ha “imparato”, per così dire, a parlare come
lui, e poi Bogdan Belyaev, uno specialista di un’azienda ucraina, Respeecher, ha scelto la cadenza e l’intonazione di ogni singola parola e frase, completando il lavoro proprio nei giorni iniziali dell’invasione russa del suo paese.
L’effetto finale è talmente realistico che moltissimi spettatori non si sono accorti che Darth Vader parla con una voce sintetica. Probabilmente questo successo è dovuto almeno in parte al fatto che il personaggio ha comunque una voce metallica e artificiale perché, per dirla con le parole di Obi-Wan Kenobiin Il Ritorno dello Jedi, Darth Vader “è più una macchina, ora, che un uomo.” Ma di fatto è un successo che segna un punto di svolta.
James Earl Jones ha dato il proprio consenso esplicito al campionamento e allo sfruttamento della sua voce con questo sistema, già usato anche per “ringiovanire” un altro attore, Mark Hamill, quello che interpreta Luke Skywalker e che compare in un’altra miniserie di Star Wars. Ma viene da chiedersi come reagiranno gli attori, e soprattutto i doppiatori, all’idea che la loro voce possa essere registrata una sola volta e poi riutilizzata all’infinito per interpretare nuovi ruoli. La tecnologia rischia di renderli disoccupati, ma al tempo stesso crea nuove opportunità di lavoro per altri artisti digitali come Bogdan Belyaev e i suoi colleghi, che sono grandi fan di Star Wars e orgogliosi di contribuire alla loro saga preferita con la loro competenza informatica.
Per citare Darth Vader: “Non essere troppo fiero di questo terrore tecnologico che hai costruito.”
Il riconoscimento vocale oggigiorno funziona piuttosto bene quando la voce è
scandita chiaramente e non c’è rumore di sottofondo, ma fallisce miseramente se chi
parla si mangia un po’ le parole, ha un accento molto marcato oppure si trova in
un ambiente rumoroso. Se poi si tratta di una voce che canta, accompagnata e
magari coperta da tanti strumenti, non c’è niente da fare.
Ma pochi giorni fa la società OpenAI, già nota per altri prodotti di intelligenza
artificiale di cui ho parlato in questo blog, come DALL-E per la generazione
di immagini, ha rilasciato
Whisper, che è un software di
intelligenza artificiale capace di superare queste limitazioni, diventando
abile quanto una persona nel decifrare le parole di una conversazione anche in
contesti rumorosi.
Per esempio, Whisper è in grado di riconoscere le parole pronunciate in varie
lingue, dette a grandissima velocità e registrate con bassa qualità, cantate
in una canzone K-Pop o dette con un forte accento, come negli esempi che
trovate sul sito di Whisper.
L’azienda ha addestrato Whisper alimentandolo con 680.000 ore di audio
abbinato alle trascrizioni corrispondenti in 98 lingue differenti. Oltre a
riconoscere il parlato in condizioni difficili, è anche in grado di fornirne
una traduzione in inglese abbastanza dignitosa.
Whisper è stato rilasciato come prodotto open source, libero e
gratuito, per cui chiunque lo può scaricare e installare liberamente e lo può
anche modificare. Richiede un computer piuttosto potente, e i suoi creatori
avvisano che il modo in cui Whisper analizza il parlato può a volte fargli
“riconoscere” parole che in realtà non ci sono, per cui è sempre necessaria
una revisione attenta da parte di una persona. Ma lo sviluppo esplosivo di questi
software di intelligenza artificiale dovrebbe far riflettere molto
attentamente chiunque faccia trascrizioni per lavoro. Forse dovrà cominciare a
pensare a come riorganizzare il proprio lavoro per diventare revisore
esperto anziché dattilografo.
Ci sono anche implicazioni più profonde e rivoluzionarie, che è necessario
considerare ogni volta che un procedimento che prima era oneroso diventa
semplice e automatizzato: se diventa possibile trascrivere enormi quantità di
parlato a costo praticamente nullo e il costo dei supporti di registrazione è
altrettanto trascurabile, diventa possibile per esempio automatizzare la sorveglianza di
massa.
Diventa possibile registrare l’audio di tutte le
telefonate di un intero paese e trascriverle tutte integralmente, per poi
cercare eventuali nomi o parole di interesse o per riconoscere le singole
voci, anche a distanza di tempo. C’è chi sospetta che alcuni governi abbiano
già questo tipo di capacità, ma con Whisper potrebbe averle anche uno
staterello relativamente squattrinato.
Pensando ad applicazioni meno controverse, invece, un riconoscimento vocale
automatizzato con le capacità di Whisper permetterebbe di trasformare in
testo, a costi ben più abbordabili di quelli attuali, gli enormi archivi dei
programmi radiofonici e televisivi storici e renderli accessibili anche a chi
ha difficoltà di udito oltre che ai linguisti, agli storici o a chiunque abbia
semplicemente il desiderio di ritrovare una battuta o una dichiarazione fatta
da qualcuno magari qualche decennio fa.
E queste sono solo le possibilità che vengono in mente adesso; chissà quali
verranno inventate quando questa tecnologia sarà diventata normale.
Il 27 settembre scorso questo aereo elettrico ha effettuato il suo primo breve volo dimostrativo. Si chiama Alice, lo fabbrica la statunitense Eviation ed è in grado di trasportare nove passeggeri con un’autonomia teorica massima di 440 miglia nautiche (circa 815 chilometri). Le prime consegne sono previste per il 2026.
Today, our all-electric Alice aircraft electrified the skies and embarked on an unforgettable world’s first flight. See Alice make history in the video clip below. We’re honored to celebrate this groundbreaking leap towards a more #sustainable future.#electricaviationpic.twitter.com/Q9dFoTPyiB
Il 27 settembre scorso è stato rilasciato un aggiornamento di sicurezza molto
importante per WhatsApp per Android e iOS, che va installato appena possibile,
perché chiude
due falle
estremamente gravi che permettono a un aggressore di prendere il controllo
degli smartphone semplicemente avviando una videochiamata oppure inviando alle
vittime un video appositamente alterato.
Le falle sono identificate formalmente con le sigle CVE-2022-36934 e
CVE-2022-27492. La prima è presente in WhatsApp normale e in WhatsApp Business
per Android e per iOS nelle versioni prima della 2.22.16.12; la seconda è
presente in Whatsapp per Android nelle versioni prima della 2.22.16.2 e in
WhatsApp per iOS nelle versioni prima della 2.22.15.9.
Se vi perdete nei numeri di versione, nessun problema: è sufficiente che
aggiorniate WhatsApp alla versione più recente disponibile su Google Play su
App Store.
Per gli amanti dei dettagli, la prima falla è un classico
integer overflow, ossia una situazione in cui un valore intero usato nell’app diventa troppo
grande per lo spazio che gli è stato assegnato, un po’ come quando occorre
compilare un formulario e le caselle a disposizione non bastano per immettere
il numero che bisogna scrivere. Questo produce un errore di calcolo, e se il
risultato di quel calcolo viene usato per controllare il comportamento
dell’app, l’errore può portare a problemi di sicurezza.
La seconda falla è invece l’esatto contrario, vale a dire un
integer underflow, un errore nel quale un calcolo produce un risultato troppo piccolo, per
esempio una sottrazione di un numero grande da un numero più piccolo che
produce un valore negativo in una situazione nella quale i valori negativi non
sono previsti.
Se pensate che questo tipo di falla sia troppo esotico per essere sfruttato,
tenete presente che una vulnerabilità analoga che c’era nelle chiamate vocali
di WhatsApp è stata utilizzata nel 2019 da una società che produce software
spia, NSO Group, per iniettare un suo programma di sorveglianza nascosta,
denominato
Pegasus, negli smartphone di bersagli politici, docenti, avvocati e collaboratori di
organizzazioni non governative.
Poche ore fa il cosmonauta russo Oleg Artemyev ha trasferito il comando della
Stazione Spaziale Internazionale all’astronauta europea Samantha
Cristoforetti, che diventa così la prima donna europea a ricoprire questo
ruolo. La cerimonia di passaggio delle consegne, con il rituale affidamento di
una chiave simbolica, è stata trasmessa in diretta.
Nel video integrale, inizialmente Oleg Artemyev parla in russo, poi Samantha
prosegue in inglese e a 7:10 parla in italiano. Stando a quanto mi dicono alcuni lettori russofoni e la traduzione nel reel Instagram dell’ESA, il tubetto contiene della torta (presumo sotto forma di pasta).
L’annuncio dell’ESA
(in italiano
qui) spiega che Samantha è stata lead del segmento orbitale statunitense
(USOS) sin dall’inizio della sua missione Minerva, ad aprile 2022, e ha
supervisionato le attività nel moduli e componenti europei, giapponesi,
statunitensi e canadesi della Stazione.
Assumendo ora il ruolo di comandante, diventa la quinta persona europea a
farlo dopo Frank De Winne, Alexander Gerst, Luca Parmitano e Thomas Pesquet.
Formalmente, la nuova mansione di Samantha Cristoforetti è denominata
International Space Station crew commander (Comandante dell'equipaggio
della Stazione Spaziale Internazionale) e i suoi compiti sono descritti
dall’ESA come segue:
“Mentre sono i direttori di volo nei centri di controllo a presiedere alla
pianificazione e all'esecuzione delle operazioni della Stazione, il/la
comandante della Stazione è responsabile del lavoro e del benessere
dell'equipaggio in orbita, deve mantenere una comunicazione efficace con i
team a terra e coordina le azioni dell'equipaggio in caso di situazioni di
emergenza. Dal momento che Samantha assumerà il comando nelle ultime
settimane della sua permanenza a bordo, uno dei suoi compiti principali sarà
quello di garantire un efficace passaggio di consegne al successivo
equipaggio.”
Domani (giovedì) tre cosmonauti, Oleg Artemyev, Denis Matveev e Sergey
Korsakov, lasceranno la Stazione a bordo della loro
Soyuz MS-21, sganciandosi dal modulo Prichal alle 3:34 a.m. EDT (9:34 CET) per
atterrare in Kazakistan circa tre ore e mezza più tardi, concludendo una
missione durata sei mesi.
Samantha e i suoi compagni di missione, Kjell Lindgren, Bob Hines e Jessica
Watkins, torneranno sulla Terra a ottobre a bordo della capsula
Crew Dragon di SpaceX.
2022/09/26 21:13. Tra poche ore, alle 23:14 GMT (1:14 ora italiana),
una sonda spaziale della NASA denominata
DART (Double Asteroid Redirection Test) si schianterà intenzionalmente contro l’asteroide Dimorphos, che ha un
diametro approssimativo di 160 metri e si trova a ben 11 milioni di chilometri
dalla Terra. L’impatto violentissimo verrà osservato da due telecamere
chiamate LEIA e LUKE che si trovano a bordo del nanosatellite
LICIACube
dell’Agenzia Spaziale Italiana, costruito da Argotec, che segue DART a
distanza di sicurezza (LICIA sta per
Light Italian CubeSat for Imaging Asteroids; LUKE sta per
LICIACube Unit Key Explorer e LEIA sta per
LICIACube Explorer Imaging for Asteroid).
La missione dimostrativa, la prima in assoluto del suo genere, ha lo scopo di
provare la fattibilità di deviare un asteroide usando l’energia cinetica di un
veicolo spaziale che la colpisca ad elevatissima velocità (oltre 20.000
km/h).
L’asteroide Dimorphos non è in rotta di collisione con la Terra e non c’è
modo in cui questo esperimento possa dirigere per errore l’asteroide verso
il nostro pianeta o verso altri corpi celesti: l’impatto di DART si limiterà
a variare leggermente la velocità alla quale l’asteroide orbita intorno a un
altro asteroide più grande, a 11 milioni di chilometri da noi (oltre 20
volte più lontano della Luna).
La tecnica di questo test è relativamente semplice: per alterare la
traiettoria di un asteroide, magari uno che fosse diretto verso la Terra, non
servono esplosioni hollywoodiane, ma è sufficiente modificare anche di poco la
velocità del corpo celeste, a patto di farlo con anticipo sufficiente, e
questa modifica si può ottenere con un semplice scontro ad alta velocità fra
l’asteroide e un veicolo spaziale.
L’asteroide prescelto per l’esperimento di stanotte orbita intorno a un altro
asteroide ben più grande (circa 780 metri di diametro), che si chiama Didymos.
L’impatto della sonda DART (570 kg) tenterà di modificare l’orbita di
Dimorphos intorno a Didymos, facendola passare da circa 11 ore e 55 minuti a
11 ore e 45 minuti.
A causa della grande distanza dalla Terra che comporta tempi di trasmissione
troppo lunghi (38 secondi per inviare o ricevere un segnale), la sonda non
verrà teleguidata ma troverà da sola il proprio bersaglio. La sfida non è
banale, perché si tratta di centrare un bersaglio di circa 160 metri di
diametro con un proiettile che viaggia a circa
sei chilometri al secondo.
DART trasmetterà un’immagine al secondo mentre sfreccia verso l’asteroide e
fino ad appena prima dell’istante d’impatto. Lo streaming della sua telecamera
DRACO sarà visibile qui sotto.
La collisione verrà ripresa anche dal satellite italiano LICIACube (14 kg),
che è stato sganciato l’11 settembre scorso dalla sonda e si trova a una
cinquantina di chilometri da DART. Le immagini verranno acquisite dalle
telecamere gemelle LEIA e LUKE del satellite, che arriverà al luogo
dell’impatto circa tre minuti più tardi, in modo da documentare visivamente i
risultati della collisione. Si stima che il cratere d’impatto avrà un diametro
di una ventina di metri.
un’ora prima dell’impatto (22.000 km di distanza) dovremmo finalmente vedere
Dimorphos come un puntino separato da Didymos;
quattro minuti prima dell’impatto, a 1500 km di distanza, avverranno le
ultime manovre di correzione di traiettoria e i due asteroidi saranno
inquadrati con una risoluzione di circa 100 pixel per Didymos e 20 pixel per
Dimorphos;
venti secondi prima dello schianto si potranno scorgere le singole rocce di
Dimorphos;
e negli ultimi istanti prima dell’impatto dovrebbero essere visibili
dettagli della superficie grandi una decina di centimetri.
Ci sono circa otto secondi di ritardo fra quando arrivano le immagini e quando
vengono pubblicate dopo essere state elaborate, per cui non sorprendetevi se
vedete immagini di Dimorphos anche dopo l’annuncio della perdita di
segnale.
Le immagini di LICIACube, invece, arriveranno nei giorni successivi, perché il
nanosatellite può trasmettere dati soltanto a velocità molto bassa.
La sonda DART è stata
lanciata
il 24 novembre 2021 dalla base di lancio di Vandenberg, in California, a bordo
di un vettore Falcon 9 di SpaceX. Fra quattro anni, la missione Hera
dell’Agenzia Spaziale Europea visiterà Didymos e Dimorphos per osservare gli
effetti a lungo termine dell’esperimento di stanotte.
---
2022/09/27 1:20. Impatto confermato! Le immagini che sono arrivate
dalla sonda in tempo reale sono assolutamente incredibili. Ora aspettiamo le
immagini e i dati di LICIACube per vedere gli effetti dell’impatto e poi i
dati dai telescopi sulla Terra e nello spazio che misureranno la variazione
dell’orbita di Dimorphos causata dalla collisione.
Impact! NASA's DART spacecraft has collided with asteroid Didymos, hitting
at a velocity of more than 14,000 mph in a historic planetary defense
experiment.
https://t.co/OtCYO9fJyNpic.twitter.com/rlWiUycLt8
2022/09/27 10:25. Queste sono le prime immagini dell’impatto, osservato
dalla Terra grazie a uno dei telescopi del sistema di monitoraggio asteroidi
ATLAS.
2022/09/27 13:25. Altre immagini dell’impatto, visto dalla Terra con un
telescopio del South African Astronomical Observatory.
Last night, Nicolas Erasmus (SAAO) and Amanda Sickafoose (@planetarysci) successfully observed DART's impact with Dimorphos using the Mookodi
instrument on the SAAO's 1-m Lesedi telescope.@fallingstarIfA
also did a very similar measurement using ATLAS-Sutherland.#DART#NASApic.twitter.com/olr4gV5SOV
2022/09/27 19:35. Sono state rilasciate le prime delle oltre 600 immagini riprese dal
satellite dell’ASI LICIACube.
Fonti aggiuntive:
ESA,
Gizmodo,
Planetary.org,
BBC,
NASA,
Space.com. Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle
donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere
ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico) o
altri metodi.