ALLERTA SPOILER: se non avete ancora visto il finale della seconda stagione di The Mandalorian, non leggete oltre per evitare rivelazioni che potrebbero guastarne la visione.
---
La puntata finale della seconda stagione di The Mandalorian include una scena in cui compare un attore ringiovanito digitalmente. Non ne cito subito il nome per non rovinarvi la sorpresa, ma è una gran bella sorpresa.
Il guaio è che il ringiovanimento digitale in questo caso è, come dire, venuto un po’ “piatto” e innaturale, forse anche per colpa dell’estrema segretezza che ha necessariamente circondato tutto il lavoro. Le movenze della testa e le espressioni sono forzate, robotiche, e la luce che illumina il viso sembra sbagliata rispetto all’illuminazione del resto della scena.
Il risultato finale è buono, ma cade proprio nel bel mezzo della famosa Uncanny Valley, ossia quella zona intermedia fra la stilizzazione estrema e il realismo perfetto, che crea emozioni negative, spesso di disagio, nello spettatore.
In sintesi: la Uncanny Valley esprime il concetto che riusciamo a empatizzare facilmente con personaggi creati digitalmente quando sono molto differenti dalla realtà; invece i volti ricreati digitalmente in modo quasi fotorealistico, con le normali proporzioni e fattezze ma senza azzeccarne perfettamente tutte le sfumature e i dettagli, non generano altrettanta empatia e spesso generano ribrezzo. Ci sta simpatico Woody di Toy Story, per esempio, ma è dura empatizzare con i personaggi digitali del film Polar Express o con Shepard di Mass Effect (qui sotto).
Nel ringiovanimento digitale tradizionale, si prende un attore, gli si fa recitare la scena mettendogli una miriade di puntini di riferimento sul volto, e poi un esercito di animatori traccia punto per punto ogni movimento muscolare, ogni ruga della pelle, ogni contrazione, ogni spostamento degli occhi, delle sopracciglia, della bocca o del naso, ventiquattro volte per ogni secondo di ripresa, e applica gli stessi movimenti a un modello digitale del viso ringiovanito o comunque alterato, ottenuto spesso partendo da una scansione tridimensionale del volto del personaggio da replicare.
Le riuscitissime scimmie del remake de Il Pianeta delle scimmie, Gollum del Signore degli anelli, Moff Tarkin e Leia in Star Wars Rogue One o gli alieni di Avatar sono stati creati con questa tecnica, ormai diffusissima, denominata motion capture (o spesso emotion capture, dato che serve per “catturare” le emozioni dell’attore).
È costosa, ma funziona benissimo per i volti non umani, ma non per quelli umani, che hanno comunque qualcosa di artificiale, magari difficile da identificare ma comunque rilevabile incosciamente anche da una persona non esperta: non sappiamo dire cosa ci sia di sbagliato, ma sappiamo che c’è qualcosa che non va. Abbiamo milioni di anni di evoluzione nel riconoscimento facciale e dei movimenti nei nostri cervelli, e la lettura delle espressioni è una funzione essenziale per la socializzazione e la sopravvivenza, per cui è difficile fregarci, nonostante i tediosissimi e costosissimi sforzi di Hollywood.
L’unico umano digitale perfettamente indistinguibile che ho visto finora è
Rachel in Blade Runner 2049. Questo video fa intuire la fatica
spaventosa necessaria per quei pochi, struggenti secondi che dilaniano
Deckard.
Tutto questo lavoro è assistito dal computer, ma richiede comunque un talento umano e una lunghissima lavorazione sia fisica sia in post-produzione per correggere gli errori del motion capture. Ma oggi c’è un altro approccio: quello dell’intelligenza artificiale, usata per creare un deepfake.
In sintesi: si danno in pasto a un computer moltissime immagini del volto da creare, visto da tutte le angolazioni e con tutte le espressioni possibili, insieme alla ripresa di un attore che recita la scena in cui va inserito quel volto, e poi lo si lascia macinare. Il computer sceglie l’immagine di repertorio più calzante e poi ne corregge luci e tonalità per adattarle a quelle della scena. Il risultato, se tutto va bene, è un’imitazione estremamente fluida e naturale delle espressioni dell’attore originale, il cui volto viene sostituito da quello digitale.
Fare un deepfake ben riuscito è soprattutto questione di potenza di calcolo e di tempo di elaborazione, oltre che di un buon repertorio di immagini di riferimento; si riduce moltissimo l’apporto umano degli animatori digitali.
I giovani esperti di effetti digitali di Corridor Crew hanno tentato di correggere la scena imperfetta di The Mandalorian usando appunto un deepfake. A questo punto credo di potervi rivelare che si tratta del giovane Luke Skywalker, generato partendo dalle immagini del suo volto all’epoca de Il Ritorno dello Jedi.
Qui sotto trovate il video del risultato, che è
davvero notevole se si considera il tempo-macchina impiegato e le limitatissime risorse
economiche in gioco. Un gruppo di ragazzi di talento batte la Disney: questa è
una rivoluzione negli effetti speciali. Se volete andare al sodo, andate a
17:20. Buona visione.
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico), Bitcoin (3AN7DscEZN1x6CLR57e1fSA1LC3yQ387Pv) o altri metodi.