Era meglio intitolarlo “Indiana Jones and the Digital Deaging” :-). Uscirà il 30 giugno 2023.
Nell’attesa, guardate come le reti neurali automatizzano il procedimento di alterazione dell‘età di un attore in modo impressionante e senza richiedere protesi, motion capture e un esercito di animatori digitali. Non sto dicendo che sia questa la tecnica usata per ringiovanire Harrison Ford; è solo un esempio del progresso straordinario di queste tecnologie.
Allerta spoiler: questo articolo rivela alcuni avvenimenti importanti delle
serie TV The Mandalorian e di The Book of Boba Fett.
Se state seguendo le serie TV The Mandalorian e
The Book of Boba Fett, conoscerete già una delle loro sorprese più
emozionanti: torna un personaggio amatissimo da tutti i fan di Star Wars,
e torna ringiovanito, grazie alla tecnologia digitale, con risultati
incredibilmente realistici. Non vi preoccupate: non dirò di chi si tratta. Non
subito, perlomeno [non è Yoda come l’immagine qui accanto potrebbe far pensare].
Ma a differenza di altri attori e attrici del passato, che sono stati ricreati
o ringiovaniti creando un modello digitale tridimensionale dei loro volti e
poi allineando faticosamente questo modello alle fattezze attuali dell’attore o di una sua
controfigura, con risultati spesso discutibili e innaturali, sembra (ma non è
ancora confermato ufficialmente) che in questo caso sia stata usata la tecnica
del
deepfake.
In pratica, nei deepfake si attinge alle foto e alle riprese video e
cinematografiche che mostrano quella persona quando era giovane, si estraggono
le singole immagini del suo volto da tutto questo materiale e poi si dà questo
repertorio di immagini in pasto a un software di intelligenza artificiale, che
le mette a confronto con le riprese nuove dell’attore o della controfigura e
sovrappone al volto attuale l’immagine di repertorio, correggendo ombre e
illuminazione secondo necessità. Sto semplificando, perché il procedimento in
realtà è molto complesso e sofisticato, e servono tecnici esperti per
applicarlo bene, ma il principio di fondo è questo.
Sia come sia, il risultato in The Book of Boba Fett, in una puntata
uscita pochi giorni fa, lascia a bocca aperta: le fattezze del volto ricreato
sono perfette, le espressioni pure, e il personaggio rimane sullo schermo per
molto tempo, in piena luce, interagendo in maniera naturale con gli altri
attori, mentre in passato era apparso in versione ringiovanita solo per pochi
secondi e in penombra, in disparte.
Mentre la prima apparizione di questo
personaggio digitale in The Mandalorian nel 2021 aveva suscitato
parecchie critiche per la sua qualità mediocre, nella puntata di
Boba Fett uscita di recente l’illusione è talmente credibile che fa
passare in secondo piano un dettaglio importante:
anche la voce del personaggio è sintetica.
Può sembrare strano, visto che la persona che lo interpreta è ancora in vita e
recita tuttora (non vi dico chi è, ma l’avete probabilmente già indovinato). Invece di chiamarla a dire le battute e poi elaborare
digitalmente la sua voce per darle caratteristiche giovanili, i tecnici degli
effetti speciali hanno preferito creare un deepfake sonoro.
Lo ammette candidamente Matthew Wood, responsabile del montaggio audio di
The Mandalorian, in una puntata di Disney Gallerydedicata al
dietro le quinte di questa serie: delle registrazioni giovanili dell’attore
sono state date in pasto a una rete neurale, che le ha scomposte e ha
“imparato” a recitare con la voce che aveva l’attore quando era giovane.
La rete neurale in questione è offerta dall’azienda Respeecher,
che offre servizi di ringiovanimento digitale per il mondo del cinema,
permettendo per esempio a un attore adulto di dare la propria voce a un bambino oppure
di ricreare la voce di un attore scomparso o non disponibile.
La demo di Respeecher in cui la voce di una persona normale viene convertita
in tempo reale in quella molto caratteristica di Barack Obama è
impressionante:
In The Book of Boba Fett, il tono è corretto, le inflessioni della voce
sintetica sono azzeccate, ma la cadenza è ancora leggermente piatta e
innaturale.
Ci vuole ancora un po’ di lavoro per perfezionare questa tecnologia, ma già
ora il risultato della voce sintetica è sufficiente a ingannare molti
spettatori e a impensierire molti attori in carne e ossa, che guadagnano dando
la propria voce a personaggi di cartoni animati o recitando audiolibri.
Ovviamente per chi ha seguito la versione doppiata della serie tutto questo
lavoro di deepfake acustico è stato rimpiazzato dalla voce
assolutamente reale del
doppiatore italiano
(Dimitri Winter), ma a questo punto si profila all’orizzonte la possibilità che il
deepfake della voce possa consentire a un attore di “parlare” anche
lingue straniere e quindi permetta di fare a meno del doppiaggio. Con il
vantaggio, oltretutto, che siccome il volto dell’attore è generato digitalmente, il labiale
potrebbe sincronizzarsi perfettamente con le battute in italiano, per esempio.
C’è il rischio che queste voci manipolabili a piacimento consentano di
creare video falsi di politici o governanti che sembrano dire frasi che in
realtà non hanno detto, come ha fatto proprio Respeecher nel 2019 in un caso molto
particolare: ha creato un video, ambientato nel 1969, in cui l’allora
presidente degli Stati Uniti Richard Nixon annuncia in televisione la tragica morte sulla
Luna degli astronauti Neil Armstrong e Buzz Aldrin (mai avvenuta), mettendo in bocca al
presidente parole ispirate al discorso che era stato scritto nell’eventualità
che la loro missione Apollo 11 fallisse.
Respeecher non è l’unica azienda del settore. Google, per esempio, offre il servizio Custom Voice, che permette di replicare la voce di una persona qualsiasi mandandole un buon numero di campioni audio di alta qualità. Funziona molto bene: infatti non vi siete accorti che da qualche tempo a questa parte i miei podcast sono realizzati usando la mia voce sintetica, data in pasto a un file di testo apposito.
La Boston Dynamics è stata acquisita dalla Hyundai. Questo è il nuovo video che mostra il meglio delle capacità di Spot, il robot quadrupede.
Se vi interessa sapere come è stato realizzato questo video, trovate la spiegazione qui in inglese: non ci sono trucchi digitali convenzionali, ma viene usata un’altra tecnica di cui ci dimentichiamo spesso: il montaggio selettivo.
Un lettore, CornerSoul, ha notato nei commenti che a 1:07 uno dei robot non ha la testa (e, aggiungo io, la testa manca a due robot a 0:40 e in altre scene): segno che il video è un montaggio di spezzoni realizzati in momenti differenti. Splendido e impressionante comunque.
Non è un effetto aggiunto in post-produzione. Questa spada laser è così dal vivo. Se volete saperne di più, dopo che vi siete ripresi, spiego qui come funziona (o perlomeno le congetture documentate su come potrebbe funzionare).
La spada laser di Star Wars, con la sua lama di luce solida, è un’arma
assolutamente iconica, che rimane impressa sin dalla sua prima apparizione.
Averne una è il sogno di ogni nerd.Ma realizzarla
concretamente, anche solo come oggetto di scena, non è stato possibile.
Certo, si possono acquistare ottime spade laser dotate di lama rigida luminosa
e di sensori che generano il suo classico ronzio usando degli accelerometri e
un piccolo altoparlante, e l’effetto è notevole...
... ma la magia finisce quando viene il momento di spegnere o accendere la
spada. Infatti queste repliche hanno una “lama” luminosa fissa, e quindi non
possono in alcun modo emulare l’effetto di accensione e spegnimento che si
vede nei film di Star Wars, che fa “estendere” e “ritrarre” la lama nel
manico.
Chi ha una di queste repliche è costretto ad andare in giro con la “lama”
sempre sporgente, anche quando è spenta, rovinando l’effetto e impedendo la
portabilità che è una caratteristica essenziale delle spade laser: piccole e
compatte quando non sono in uso, si possono appendere alla cintura e portare
in giro comodamente.
Ma la Disney ha presentato di recente una
spada laser con lama luminosa retrattile.
Lo ha fatto, durante una conferenza stampa virtuale, il presidente del reparto
parchi a tema della Disney, Josh D’Amaro. Le riprese video erano vietate, per
cui abbiamo soltanto le descrizioni di chi c’era, e tutte indicano che questa
spada laser si comporta esattamente come quelle nei film. Eccetto, ovviamente,
per la capacità di tranciare qualunque cosa come se fosse burro.
Come sarebbe possibile un effetto del genere? I segugi di Internet hanno
scoperto questo brevetto del 2018, lo
US10065127B1,
“Sword device with retractable, internally illuminated blade”. Oltre
alla descrizione tecnica, in puro brevettese, il documento include delle
figure abbastanza comprensibili, come questa:
L’illusione di scena sarebbe tutto sommato semplice, almeno in termini
concettuali: la “lama” è formata da due lamine semitrasparenti avvolgibili,
che sono arrotolate all’interno dell’impugnatura e che vengono incurvate a U
longitudinalmente quando un motorino le fa uscire dall’impugnatura. Le due
curvature sono contrapposte e formano così una struttura tubolare. Se riuscite
a immaginare due metri a nastro avvolgibili messi l’uno contro l’altro
probabilmente diventa tutto più comprensibile.
It won't melt through metal blast
doors, or cut off your hand, but it does feature an illuminated blade that
will extend and retract at the push of a button.
Next, widen the tapes and increase the curve, allowing them to partially
wrap around each other and form a complete cylinder. Drive this system with
a motor so both reels can be extended and retracted in synch at the push of
a button. Now, you've got a lightsaber!
pic.twitter.com/B3lLMmclDN
La punta della lama è un tappo semitrasparente che si trascina dietro, durante l’estrazione, una striscia avvolgibile di LED.
Una soluzione semplice ed elegante, per tempi più civilizzati, come direbbe Obi-Wan Kenobi. La voglio. Nel frattempo mi accontento di un’app.
2021/05/05 8:45
Disney Parks ha pubblicato ieri due brevissimi video che mostrano finalmente in azione questa spada laser. Ê... “notevole, veramente notevole”.
Se posso osare qualche critica a questo gioiello per nerd, noto due cose: la prima è che la ripresa è fatta in condizioni di luce ambiente fioca, per cui la luminosità reale della spada potrebbe essere modesta (ma sufficiente per un effetto “wow” nelle scene nelle quali verrà usata nell’attrazione Star Wars: Galactic Starcruiser presso il Walt Disney World Resort a Lake Buena Vista, in Florida, quando debutterà nel 2022). La seconda è che la persona che la impugna è di statura piuttosto piccola (a giudicare dalle proporzioni testa-corpo), per cui la “lama” potrebbe essere più corta di quello che sembra a prima vista.
Giusto per chiarezza: questa spada non è in vendita. Per ora.
ALLERTA SPOILER: se non avete ancora visto il finale della seconda stagione
di The Mandalorian, non leggete oltre per evitare rivelazioni che
potrebbero guastarne la visione.
---
La puntata finale della seconda stagione di The Mandalorian include una
scena in cui compare un attore ringiovanito digitalmente. Non ne cito subito
il nome per non rovinarvi la sorpresa, ma è una
gran bella sorpresa.
Il guaio è che il ringiovanimento digitale in questo caso è, come dire, venuto
un po’ “piatto” e innaturale, forse anche per colpa dell’estrema segretezza
che ha necessariamente circondato tutto il lavoro. Le movenze della testa e le
espressioni sono forzate, robotiche, e la luce che illumina il viso sembra
sbagliata rispetto all’illuminazione del resto della scena.
Il risultato
finale è buono, ma cade proprio nel bel mezzo della famosa
Uncanny Valley, ossia quella zona intermedia fra la stilizzazione estrema e il realismo
perfetto, che crea emozioni negative, spesso di disagio, nello spettatore.
In sintesi: la Uncanny Valley esprime il concetto che riusciamo a
empatizzare facilmente con personaggi creati digitalmente quando sono
molto differenti dalla realtà;
invece i volti ricreati digitalmente in modo
quasi fotorealistico, con le normali proporzioni e fattezze ma senza azzeccarne perfettamente tutte le sfumature e i dettagli, non
generano altrettanta empatia e spesso generano ribrezzo. Ci sta simpatico Woody di Toy Story, per esempio, ma è dura empatizzare con i
personaggi digitali del film Polar Express o con Shepard di Mass Effect (qui
sotto).
Nel ringiovanimento digitale tradizionale, si prende un attore, gli si fa
recitare la scena mettendogli una miriade di puntini di riferimento sul volto, e poi un esercito di animatori traccia punto per punto ogni
movimento muscolare, ogni ruga della pelle, ogni contrazione, ogni spostamento
degli occhi, delle sopracciglia, della bocca o del naso, ventiquattro volte per
ogni secondo di ripresa, e applica gli stessi movimenti a un modello digitale
del viso ringiovanito o comunque alterato, ottenuto spesso partendo da una
scansione tridimensionale del volto del personaggio da replicare.
Le riuscitissime scimmie del remake de Il Pianeta delle scimmie,
Gollum del Signore degli anelli, Moff Tarkin e Leia in
Star Wars Rogue One o gli alieni di Avatar sono stati creati con
questa tecnica, ormai diffusissima, denominata motion capture (o spesso
emotion capture, dato che serve per “catturare” le emozioni
dell’attore).
È costosa, ma funziona benissimo per i volti non umani, ma non per quelli
umani, che hanno comunque qualcosa di artificiale, magari difficile da
identificare ma comunque rilevabile incosciamente anche da una persona non esperta: non sappiamo dire cosa ci sia di sbagliato, ma sappiamo che c’è qualcosa che non va. Abbiamo
milioni di anni di evoluzione nel riconoscimento facciale e dei movimenti nei
nostri cervelli, e la lettura delle espressioni è una funzione essenziale per
la socializzazione e la sopravvivenza, per cui è difficile fregarci,
nonostante i tediosissimi e costosissimi sforzi di Hollywood.
L’unico umano digitale perfettamente indistinguibile che ho visto finora è
Rachel in Blade Runner 2049. Questo video fa intuire la fatica
spaventosa necessaria per quei pochi, struggenti secondi che dilaniano
Deckard.
Tutto questo lavoro è assistito dal computer, ma richiede comunque un talento
umano e una lunghissima lavorazione sia fisica sia in post-produzione per
correggere gli errori del motion capture. Ma oggi c’è un altro
approccio: quello dell’intelligenza artificiale, usata per creare un
deepfake.
In sintesi: si danno in pasto a un computer moltissime immagini del volto da
creare, visto da tutte le angolazioni e con tutte le espressioni possibili,
insieme alla ripresa di un attore che recita la scena in cui va inserito quel
volto, e poi lo si lascia macinare. Il computer sceglie l’immagine di
repertorio più calzante e poi ne corregge luci e tonalità per adattarle a
quelle della scena. Il risultato, se tutto va bene, è un’imitazione
estremamente fluida e naturale delle espressioni dell’attore originale, il cui
volto viene sostituito da quello digitale.
Fare un deepfake ben riuscito è soprattutto questione di potenza di
calcolo e di tempo di elaborazione, oltre che di un buon repertorio di
immagini di riferimento; si riduce moltissimo l’apporto umano degli animatori
digitali.
I giovani esperti di effetti digitali di Corridor Crew hanno tentato di
correggere la scena imperfetta di The Mandalorian usando appunto un
deepfake. A questo punto credo di potervi rivelare che si tratta del
giovane Luke Skywalker, generato partendo dalle immagini del suo volto all’epoca de Il Ritorno dello Jedi.
Qui sotto trovate il video del risultato, che è
davvero notevole se si considera il tempo-macchina impiegato e le limitatissime risorse
economiche in gioco. Un gruppo di ragazzi di talento batte la Disney: questa è
una rivoluzione negli effetti speciali. Se volete andare al sodo, andate a
17:20. Buona visione.
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle
donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere
ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico), Bitcoin (3AN7DscEZN1x6CLR57e1fSA1LC3yQ387Pv) o
altri metodi.
Cats, il film basato sul celeberrimo musical a sua volta basato sul libro di poesie di T.S. Eliot, è un disastro tecnico di proporzioni epiche. Chi è andato al cinema a vederlo ha notato che gli effetti speciali digitali che dovrebbero trasformare gli attori in umanoidi felini sono sbagliati, assenti o incompleti.
Spicca, per esempio, la mano umanissima di Judi Dench, con tanto di anello al dito. C’è anche la mano umana di Rebel Wilson, addirittura in uno dei trailer ufficiali.
Chi ha visto il film nella sua versione iniziale ha detto di aver notato anche “un uomo che se ne sta semplicemente in piedi in mezzo a una scena di un raduno di gatti” e “una donna che dovrebbe essere un gatto ma è stata soltanto colorata e si sono dimenticati di aggiungerle il pelo” e altro ancora. I corpi e i volti degli attori (nomi fra l’altro di altissimo livello) sono spesso fuori sincronismo: “si vede chiaramente la separazione fra i volti degli attori e il ‘pelo’ digitale [... e si vedono] le linee delle scarpette da danza sotto quelli che dovrebbero essere piedi o zampe nude” (Screenrant).
Gli attori hanno infatti girato le scene indossando tute per motion capture e poi gli artisti digitali hanno usato i dati posizionali acquisiti dalle tute per aggiungere il pelo digitale e fondere le forme umane con quelle feline, a volte con risultati esteticamente sconcertanti, come si può vedere nel trailer qui sotto.
Il regista, Tom Hooper, aveva detto di aver finito il film appena prima della sua anteprima mondiale, ma chiaramente si è perso per strada qualcosa. Ormai il film, costato oltre 100 milioni di dollari, è in circolazione in migliaia di sale.
Nell’era della pellicola questo sarebbe stato un disastro irreparabile, con migliaia di costose copie da buttare e rifare e un incubo logistico senza pari, ma dato che ormai quasi tutti i film sono distribuiti su supporto digitale o addirittura tramite download, la Universal, che distribuisce Cats, ha preso una decisione senza precedenti: sostituire tutte le copie digitali fallate con una versione aggiornata e corretta, che è in distribuzione da un paio di giorni. Siamo arrivati alle patch per i film.
In passato è già capitato che un film sia stato modificato o corretto dopo l’anteprima, ma questo solitamente è avvenuto prima della duplicazione in massa per la distribuzione. L’unico incidente vagamente analogo che mi viene in mente è il ritiro, nel 1999, di 3,4 milioni di copie su videocassetta di Le avventure di Bianca e Bernie, un cartone animato della Disney datato 1977: in una scena della pellicola originale qualcuno aveva infatti inserito abusivamente, per due fotogrammi, una piccola foto di una donna a seno nudo che si affacciava a una finestra dello sfondo disegnato.
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico), Bitcoin (3AN7DscEZN1x6CLR57e1fSA1LC3yQ387Pv) o altri metodi.
Un imitatore, Jim Meskimen, presta la propria voce e le proprie movenze a questo deepfake, nel quale l’intelligenza artificiale e il talento del suo operatore, Sham00k, sostituiscono le fattezze dell'imitatore con quelle del personaggio imitato. Il risultato è impressionante, specialmente se conoscete le voci originali di questi attori e politici imitati.
Si tratta di una creazione digitale della Corridor. Questo è un loro video che mostra anche il dietro le quinte. Un’ottima trovata di marketing virale.
Quest’altro spiega ulteriori dettagli della realizzazione (da 6:10 in poi, dopo lo spottone promozionale):
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico), Bitcoin (3AN7DscEZN1x6CLR57e1fSA1LC3yQ387Pv) o altri metodi.
Avvertenza: Se non siete appassionati totali di Star Trek, non leggete oltre. Non dite che non vi ho avvisato :-)
Quando debuttò Star Trek: The Next Generation, troppi anni fa, vantava ottimi effetti speciali (analogici) creati dalla Industrial Light and Magic, quella di Star Wars e tanti altri film visivamente straordinari. C’era chi giurava di aver intravisto, nella sigla di testa, che in un’inquadratura del modello dell’Enterprise (quella a 1:25 nel video qui sotto) c’erano addirittura le persone che si muovevano: una cosa che non si vedeva dai tempi di 2001: Odissea nello Spazio.
Io all’epoca guardavo TNG nell’unico modo possibile, ossia in videocassetta su un TV a tubo catodico, e quindi non vedevo dettagli così minuscoli. Soltanto anni dopo, quando uscì l’edizione in DVD e poi in Blu-ray, quell’avvistamento ormai diventato mitico tra i fan fu confermato.
Oggi TrekCore ha pubblicato l’animazione originale usata per creare l’effetto: una semplice sequenza di disegni a matita che mostrano membri dell’equipaggio. Fra l’altro, la visione dell’animazione originale chiarisce che non si tratta del ponte di comando, come avevano pensato in tanti, bensì nella sala conferenze (conference lounge o observation lounge) dell’astronave.
The original pencil animation used to create the illusion of people moving inside the Enterprise-D's conference lounge, as seen in the #StarTrek TNG opening credits sequence. pic.twitter.com/ucYUObirAL
La vicenda è raccontata qui su Startrek.com. La pubblico qui per il puro piacere di condividere una chicca che mi ha fatto sorridere.
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico), Bitcoin (3AN7DscEZN1x6CLR57e1fSA1LC3yQ387Pv) o altri metodi.
Sul canale Youtube derpfakes è uscita questa demo nella quale il giovane Harrison Ford prende il posto di Alden Ehrenreich. Considerato che è fatto senza il dispiego di mezzi di Hollywood ma da un semplice appassionato, il risultato è davvero notevole.
Sì, è Nicolas Cage nei Predatori dell’Arca Perduta (deepfake).
La tecnologia di manipolazione deepfake, che consente di sostituire i volti nei video in maniera quasi completamente automatica, crea una certa inquietudine perché quando è usata bene consente di ottenere risultati estremamente credibili con un impegno di risorse tecniche molto modesto (basta un computer domestico).
L’idea che ci si possa trovare circondati da video falsi indistinguibili dagli originali ha ovviamente delle forti implicazioni in molti campi, dalla politica al giornalismo alla documentazione storica alle indagini giudiziarie. Ma la ricerca scientifica corre veloce anche nel settore dello smascheramento di questi falsi, proponendo tecniche di analisi e identificazione sempre più ingegnose.
Tre ricercatori della State University of New York hanno pubblicato una di queste tecniche nel paper In Ictu Oculi: Exposing AI Generated Fake Face Videos by Detecting Eye Blinking, che suggerisce di esaminare matematicamente il movimento delle palpebre nei video per capire se è naturale o no e quindi rivelare eventuali falsificazioni.
Le persone sbattono le palpebre in media circa 17 volte al minuto: questa cadenza aumenta durante una conversazione e diminuisce durante la lettura. Ma gli attuali software di generazione dei deepfake non tengono conto di questo fenomeno, per cui una cadenza errata, misurata da un apposito software, rivela la manipolazione.
Secondo i ricercatori, fra l’altro, migliorare i deepfake per includere la cadenza corretta non è facile, perché i dataset usati per “addestrare” questi programmi di solito non contengono immagini dei volti-bersaglio con gli occhi chiusi. I falsificatori dovranno quindi inventarsi un modo per aggiungere il movimento corretto delle palpebre. La gara fra falsificatori e smascheratori non conosce soste.
La GIF animata un po’ troppo rivelatrice dell’attrice di Star Wars Daisy Ridley che vedete qui sopra è un falso: il volto della Ridley è stato applicato al corpo di un’altra persona e segue tutti i movimenti dell’originale. Niente di nuovo in sé, ma la differenza è che questo effetto non è stato prodotto da una squadra di artisti digitali in uno studio cinematografico specializzato: è stato prodotto amatorialmente da FakeApp, un programma di intelligenza artificiale su un computer domestico di media potenza.
Tutto quello che serve, oltre al video originale in cui sostituire il volto, è un numero molto elevato di immagini del volto da inserire, una scheda grafica Nvidia, e un po’ di pazienza: l’elaborazione richiede molte ore e spesso produce risultati disastrosi, per cui va ripetuta effettuando correzioni e regolazioni manuali. Ma i successi sono impressionanti.
Ovviamente esistono usi innocui (tipo inserire il proprio volto al posto di quello di un attore in un film celebre), ma c’è soprattutto la possibilità di creare video falsi imbarazzanti a scopo di ricatto, molestia o di produzione di notizie false estremamente credibili (immaginate il video di un discorso di un politico), o di creare video pornografici raffiguranti celebrità o qualunque altra persona di qualunque età.
È già nata su Reddit una sezione (attenzione: contiene materiale non adatto agli animi sensibili) di, come dire, appassionati, dedicata principalmente alla creazione di filmati di questo genere, spesso con risultati praticamente perfetti.
Un esempio della potenza di questa tecnologia alla portata di tutti è dato da questo rifacimento di una celebre scena di Rogue One, nella quale il volto della giovane Carrie Fisher è stato ricreato digitalmente con mezzi iperprofessionali ma con risultati discutibili. La versione generata dall’intelligenza artificiale su un computer domestico (sotto) è a bassa risoluzione, ma è a mio avviso meno innaturale e più fedele di quella generata dai megacomputer di Hollywood (sopra).
Aggiornamento: Il confronto di cui parlo qui sopra è stato rimosso.
Chi non ha un occhio particolarmente allenato a riconoscere le piccole imperfezioni caratteristiche di questi video e non sa che esiste questa tecnologia potrebbe credere che siano reali, con tutte le conseguenze del caso. Prepariamoci a un futuro nel quale letteralmente non potremo credere ai nostri occhi.
In questi giorni hanno iniziato a circolare due notizie apparentemente slegate ma in realtà parallele.
La prima riguarda un video che mostra un uomo che cammina in un grande giardino tenendo in mano un telo trasparente: quando lo dispiega davanti a sé, l’uomo diventa invisibile. Sembra quasi che il mantello dell’invisibilità di Harry Potter sia diventato realtà grazie alla scienza, se si dà retta alla descrizione che accompagna il video e che parla di “materiali quantici.. usabili dai militari”, ma in realtà si tratta di un effetto speciale video ottenuto con la tecnica cinematografica nota comechroma key oppure blue screen o green screen: il telo è di un particolare colore (di solito blu o verde) che viene sostituito digitalmente con un’immagine preregistrata di quello che sta dietro il telo, che così sembra creare l’invisibilità.
La seconda ha a che fare con un ventiduenne inglese, Jay Swingler, che ha deciso volontariamente di mettere la propria testa dentro un forno a microonde riempito di schiuma espandente, allo scopo di riprendersi in un video da pubblicare su Youtube insieme ad altri dello stesso genere demenziale. La schiuma si è solidificata e il ragazzo ha rischiato di morire soffocato, ma è stato salvato dall’intervento di ben cinque vigili del fuoco, come riferiscono la BBC e i pompieri delle West Midlands.
Cos’hanno in comune queste due storie? Lo stesso movente: fabbricare video che diventano popolari e generano soldi. Se un video riceve tante visualizzazioni, i social network e i siti come Youtube pagano i suoi creatori in cambio del diritto di inserirvi pubblicità. Questo meccanismo di monetizzazione dei video ha creato una vera e propria industria amatoriale di video falsi, con contenuti spesso scioccanti o demenziali, costruiti a tavolino per far parlare di sé ed essere condivisi, che non esisterebbero se non ci fosse l’incentivo del guadagno. E ci sono anche sciacalli che rubano i video virali altrui per monetizzarli.
Il video del mantello dell’invisibilità, per esempio, proviene dal social network cinese Weibo, ma è stato visto 32 milioni di volte da quando è stato condiviso su Facebook ed è stato citato da numerose testategiornalistiche (specificando chiaramente che si trattava di una finzione). Il video del gesto d’incoscienza del ragazzo britannico ha accumulato oltre tre milioni di visualizzazioni in pochi giorni. Questo significa che chi li ha pubblicati riceverà qualche migliaio di euro di compenso.
La monetizzazione su Internet di video falsi o fabbricati è una delle ragioni del boom delle notizie false basate su questi video: costano poco e rendono molto, anche per le testate giornalistiche che le ripubblicano senza verificarle. I social network stanno correndo ai ripari togliendo le pubblicità, e quindi l’incentivo economico, ai video che incoraggiano o promuovono comportamenti dannosi o pericolosi, ma questa rimozione avviene soltanto se un video viene segnalato dagli utenti (è successo per il video della testa nel microonde). Spetta quindi a noi utenti, insomma, agire per disincentivare questa forma di fake news.
Fonti aggiuntive: Bufale.net; Gizmodo; Snopes.com. Questo articolo è il testo preparato per il mio servizio La Rete in 3 minuti per Radio Inblu del 14 dicembre 2017.
Quasi due milioni di visualizzazioni per un video di un uccellino che svolazza davanti a una telecamera di sorveglianza domestica possono sembrare tante, ma se lo guardate (dura solo undici secondi) capirete il motivo di tanto interesse: il volatile sta sospeso in aria senza che si veda alcun movimento delle ali. Come è possibile?
Non è grafica digitale o un trucco fisico: l’uccellino non è stato appeso a un filo o creato digitalmente. Quello che si vede nel video è tutto reale. La spiegazione è poco intuitiva per chi non conosce il funzionamento di una telecamera: per una fortunata coincidenza, le ali si muovono con la stessa cadenza con la quale la telecamera acquisisce la sequenza di immagini fisse che compongono il video (circa 20 cicli al secondo, come spiegato dall'autore, GingerBeard), per cui il video ha registrato le immagini delle ali solo quando erano in una posizione sempre uguale del loro battito.
Questa tecnica, chiamata spesso stroboscopia, si usa da tempo in numerose varianti per esaminare movimenti rapidi e ripetitivi, per esempio di macchinari, ed è la ragione per la quale in alcuni film e video si vede che le ruote dei carri e delle auto sembrano girare in senso contrario a quello di marcia. Ma è rarissimo vederla in azione per caso e con risultati così magici come in questo video.
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi piace, potete farne una anche voi per incoraggiarmi a scrivere ancora.
Da una parte la tecnica manuale portata alla sua massima espressione, dall’altra l’arte digitale di creare ambienti impossibili: vi propogo due video che mostrano quanto incredibile lavoro umano c’è dietro ogni effetto speciale cinematografico che passa sullo schermo per pochi istanti per creare l’illusione e calarci nella storia.
Cominciamo con Roger Rabbit, che ha abbinato animazione tradizionale con riprese cinematografiche dal vivo in modo tuttora insuperato (e lo ha fatto manualmente): notate quanti trucchi sono stati usati dagli animatori per correggere gli errori degli attori (quando Bob Hoskins guarda troppo in alto, Roger Rabbit si mette in punta di piedi in modo che Hoskins lo guardi negli occhi) e quanti dispositivi meccanici sono stati realizzati per integrare gli effetti fisici con l’animazione, costruendo macchine per una singola scena di pochi secondi. E notate il capolavoro di dettaglio, quando la lampada oscilla e le ombre su Roger Rabbit cambiano continuamente per seguire le oscillazioni e addirittura, per una frazione di secondo, l’orecchio di Roger passa davanti alla lampada e diventa semitrasparente. L’avevate mai notato? Il confronto con altri film a tecnica mista è impietoso.
Passiamo al presente con un allerta SPOILER: se non avete ancora visto l’ottima, inquietante miniserie The Man in the High Castle, ambientata negli anni Sessanta di un universo alternativo nel quale la Germania nazista e il Giappone hanno vinto la Seconda Guerra Mondiale a colpi di bombe atomiche e il nazismo in America è diventata una normalità che definisce la vita quotidiana, il video che segue contiene molte anticipazioni della seconda stagione.
Ora che vi ho avvisato, ecco il video: notate quanto dettaglio viene creato (dagli artisti, non dal computer) per rendere credibili le scenografie generate digitalmente e ispirate ai veri progetti nazisti per la Berlino del Reich vincitore. Gli aerei di linea supersonici nazisti sono magnifici nel loro stile leggermente retrò, e se siete appassionati d’aviazione noterete che l’aeroporto include anche un De Havilland Comet. Un dettaglio che non era necessario, ma che è un sintomo della passione e della cura che gli artisti immettono in queste creazioni. Trovate dettagli sulla ricerca storica di TMITHC in questo articolo di Gizmodo.
Non dite mai “l’ha fatto il computer”: dietro ogni effetto digitale c’è sempre un essere umano, e spesso più di uno.
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi piace, potete farne una anche voi per incoraggiarmi a scrivere ancora.
Noticina domenicale per iniziare la giornata con qualcosa di leggero: quando è stato annunciato che il titolo del prossimo film della saga di Star Wars sarebbe stato The Last Jedi è nato subito un dubbio: singolare o plurale? In inglese, con questa costruzione della frase, non è possibile capirlo. Il vecchio Luke Skywalker era forse davvero l’ultimo Jedi?
Quest’ambiguità, sulla quale molti fan si sono sicuramente arrovellati ossessivamente, è stata risolta con l’annuncio delle traduzioni in altre lingue. In francese si intitolerà Star Wars: Les Derniers Jedi, in tedesco Star Wars: Die Letzten Jedi e in spagnolo Star Wars: Los Últimos Jedi. Questo è un tweet ufficiale:
Intanto godetevi questi spezzoni della realizzazione degli effetti speciali di Rogue One, che per me è stato uno dei più bei film della saga, al pari della trilogia originale, sia come storia, sia come impatto visivo. Questi video non rendono bene quanta fatica ci sia dietro la costruzione minuziosa dei mondi digitali, ma perlomeno chiariscono quanto siamo ormai costantemente ingannati in modo perfetto dagli effetti speciali, tanto da non accorgerci che anche gli oggetti normali (e a volte gli attori stessi, in Rogue One) sono in realtà sintetici.
I miei momenti “wow” in questi spezzoni sono il gigaschermo reale costruito intorno agli abitacoli per creare gli effetti di luce riflessa corrispondenti alla scena e la “cinepresa virtuale” in mano al regista Gareth Edwards, che gli consente di scegliere interattivamente le inquadrature in un set inesistente. Tecnologie lanciate da Gravity e Oblivion e rispettivamente da Avatar e ora maturate abbastanza da rendere la battaglia di Scarif in Rogue One una delle più credibili ed eleganti in assoluto. Buona visione.
Bello, vero? Probabilmente vi sarà venuto qualche sospetto sulla credibilità del video, anche se molti ci hanno creduto, e infatti è un bel falso: è stato pubblicato il video che spiega le tecniche molto sofisticate che sono state usate per crearlo.
Il video è divertente e creativo, ma è anche un bell’esempio di quanto lavoro viene speso oggi per confezionare video falsi allo scopo di raggranellare visualizzazioni (oltre 600.000 per questo video) che portano soldi. Le telecamere e il software necessari per effetti che prima sarebbero stati un’esclusiva delle grandi produzioni cinematografiche o televisive oggi sono alla portata di tutti: basta avere talento e creatività, e ora con Youtube e affini c’è un’ottima motivazione economica. Ricordiamocelo la prossima volta che vediamo una prova video “inconfutabile”: senza una fonte attendibile, un video non dimostra nulla.
Il nuovo video degli OK Go, intitolato Upside Down, Inside Out, parte subito dichiarando che “Quello che state per vedere è reale. Lo abbiamo girato in gravità zero, in un vero aereo, in cielo. Non ci sono fili o green screen”. Seguono tre minuti abbondanti di evoluzioni spettacolari e impossibili che fanno davvero sembrare che gli OK Go abbiano annullato la gravità. Molti si stanno chiedendo come possa essere vera l’affermazione del gruppo musicale, noto per i suoi video stracolmi di illusioni ottiche e di effetti ottenuti dal vivo, senza trucchi digitali. È una bufala?
Non proprio. La tecnica descritta dagli OK Go, ossia usare un aereo per creare un effetto identico all’assenza di peso, è reale e documentata da decenni: la adoperano gli astronauti per allenarsi all’assenza di peso che troveranno nello spazio. Basta lanciare l’aereo su una traiettoria che lo faccia arrampicare in cielo e poi ridurre la spinta dei motori: il velivolo traccia un arco parabolico e poi inizia a cadere, e durante questo periodo di caduta libera a bordo si ha l’effetto dell’assenza di peso (non assenza di gravità: la gravità c'è ancora ed è infatti quella che attira l’aereo verso terra, ma siccome i passeggeri cadono alla stessa velocità con la quale cade l'aereo, gli oggetti e le persone a bordo fluttuano come se non ci fosse gravità).
OK Go - Upside Down & Inside Out
Hello, Dear Ones. Please enjoy our new video for "Upside Down & Inside Out". A million thanks to S7 Airlines. #GravitysJustAHabit
Pubblicato da OK Go su Giovedì 11 febbraio 2016
Fin qui, insomma, il video degli OK Go è realistico, ma c’è un piccolo problema: i periodi di caduta libera ottenibili con gli aerei durano al massimo una ventina di secondi (per non schiantarsi al suolo) e sono seguiti da un periodo di alcuni minuti nel quale i piloti fanno rialzare l’aereo dalla sua traiettoria diretta verso il suolo, con un’accelerazione che aumenta il peso degli occupanti. Nel video, invece, ci sono circa tre minuti di assenza di peso ininterrotti. Allora c’è un trucco?
Ebbene sì: il video è stato realizzato in spezzoni brevi che poi sono stati uniti in fase di montaggio, come sottolinea su Facebook persino la NASA. Secondo la spiegazione pubblicata sul sito ufficiale degli OK Go, si tratta di una ripresa singola di 45 minuti, che include otto periodi consecutivi di assenza di peso di circa 27 secondi intervallati da alcuni minuti di condizioni normali: questi minuti sono stati tolti dal video e gli stacchi non si vedono grazie a un piccolo ritocco digitale di morphing. Se li volete scovare senza troppa fatica, sono a 0:46, 1:06, 1:27, 1:48, 2:09, 2:30 e 2:50.
Avrete forse notato che fra uno stacco e l’altro non passano 27 secondi, ma 21: è esatto, perché le riprese sono state accelerate in post-produzione in modo da far corrispondere i 27 secondi di assenza di peso ai 21 delle varie sezioni della canzone. Gli OK Go, durante il volo, riproducevano la canzone rallentandola di quasi il 30%.
Le riprese si sono svolte su un grande aereo apposito del Centro di Addestramento per Cosmonauti vicino a Mosca, all’interno del quale è stata costruita una finta fusoliera d’aereo di linea, ben più lavabile dei normali interni di un velivolo. Geniale e divertente.
2016/02/18: È stato pubblicato un video che mostra in dettaglio quello che è successo dietro le quinte, comprese le complicazioni di nausea e vomito e il rallentamento della musica per adattarla alla durata dei periodi di assenza di peso, e spiega la teoria del volo parabolico.
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi piace, potete incoraggiarmi a scrivere ancora (anche con un microabbonamento).
Ho da sempre un debole per gli effetti speciali e adoro vedere come vengono realizzati, sia quelli fisici sia quelli digitali. Il guaio di quelli digitali, in particolare, è che quando sono fatti veramente bene diventano invisibili e non si apprezza quanto lavoro richiedono. Tanti gli spettatori superficiali dicono “Ah, sì, è fatto al computer, che ci vuole”. Come se il computer sapesse fare l’artista da solo.
Anche se i video qui sotto sono materiale promozionale e quindi riconfezionano un po’ il processo di creazione degli effetti, è impressionante vedere quanti dettagli vengono aggiunti o modificati per ottenere l’illusione finale. Per esempio, avevate notato che in molte scene le visiere dei caschi di The Martian sono state aggiunte digitalmente?