Era meglio intitolarlo “Indiana Jones and the Digital Deaging” :-). Uscirà il 30 giugno 2023.
Nell’attesa, guardate come le reti neurali automatizzano il procedimento di alterazione dell‘età di un attore in modo impressionante e senza richiedere protesi, motion capture e un esercito di animatori digitali. Non sto dicendo che sia questa la tecnica usata per ringiovanire Harrison Ford; è solo un esempio del progresso straordinario di queste tecnologie.
A volte le visualizzazioni grafiche dei dati fanno emergere il quadro generale molto più chiaramente di qualunque discorso. È il caso di questa animazione, che segue l‘evoluzione delle emissioni di CO2 dal 1750 al 2018 (268 anni) e mostra il loro crescendo inquietante insieme ai vari sorpassi dei contendenti a questa gara a chi fa peggio. Notate quanto spicchi la Rivoluzione Industriale britannica e quanto la scala debba ampliarsi per tenere conto della crescita enorme delle emissioni umane.
Animation: The countries with the largest cumulative CO2 emissions since 1750
Ranking as of the start of 2019:
1) US – 397GtCO2
2) CN – 214Gt
3) fmr USSR – 180
4) DE – 90
5) UK – 77
6) JP – 58
7) IN – 51
8) FR – 37
9) CA – 32
10) PL – 27 pic.twitter.com/cKRNKO4O0b
La fonte dell’animazione è Observablehq.com, che cita come fonti CDIAC e Global Carbon Project, ma senza fornire link specifici (li ho già chiesti agli autori e sto attendendo risposta). Se qualcuno li trova, li aggiungo qui volentieri.
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico), Bitcoin (3AN7DscEZN1x6CLR57e1fSA1LC3yQ387Pv) o altri metodi.
Qualche anno fa avevo segnalatoSintel, un esempio di cartone animato digitale realizzato secondo i criteri dell’open source, nel quale tutti gli elementi sono liberi da vincoli di diritto d’autore e sono liberamente riutilizzabili (a patto che chi li usa a sua volta renda libere le proprie opere). Anche il software usato, Blender, è open source.
La tecnologia progredisce in fretta, e Spring è un nuovo cortometraggio che dimostra quanta strada è stata fatta. Tutti i suoi elementi sono scaricabili.
Questo articolo vi arriva gratuitamente e senza pubblicità grazie alle donazioni dei lettori. Se vi è piaciuto, potete incoraggiarmi a scrivere ancora facendo una donazione anche voi, tramite Paypal (paypal.me/disinformatico), Bitcoin (3AN7DscEZN1x6CLR57e1fSA1LC3yQ387Pv) o altri metodi.
Debutterà questo mese in Cina la prima conduttrice di telegiornale interamente sintetica. Si chiama Xin Xiaomeng e “lavora” per l’agenzia di stato cinese per l’informazione.
Xin Xiaomeng si affianca ai “colleghi” maschili, già in uso da alcuni mesi, che hanno già presentato oltre 3400 servizi per un totale di 10.000 minuti di televisione. Si stanno già evolvendo: inizialmente potevano presentare solo stando seduti alla scrivania, mentre ora stanno in piedi e gesticolano in modo abbastanza naturale da ingannare un occhio distratto.
Per ora è ancora possibile distinguere la versione in carne e ossa da quella virtuale osservando attentamente alcuni dettagli e facendo il confronto diretto. Ma se ci abituiamo a questi simulacri, come ci siamo già abituati ai volti e ai corpi assolutamente artificiali presentati dalle foto di moda e dagli account Instagram delle celebrità, rischiamo di perdere la capacità di fare questa distinzione.
Un conduttore di TG virtuale è il sogno di tante redazioni: non arriva mai tardi, non si impapera, non ha bisogno di essere vestito e truccato o di avere uno studio televisivo con relativi operatori, non può avere una vita privata imbarazzante, non chiede aumenti di stipendio e non ha pretese sindacali. Per un governo totalitario, inoltre, è uno strumento perfetto che elimina ogni rischio che un giornalista abbia una crisi di coscienza e dica in diretta la verità.
Ultimamente si fa un gran parlare di intelligenza artificiale: sembra quasi che qualunque progetto informatico o tecnologico che non includa queste parole magiche sia da cavernicoli, e molti fra i non addetti ai lavori immaginano chissà quali computer superintelligenti o robot assassini pronti a dominare il mondo e renderci schiavi.
La realtà, per fortuna, è molto diversa: quella che oggi viene chiamata “intelligenza artificiale” non è un’intelligenza generalista ma è una tecnologia che risolve un singolo problema ben specifico ma non è capace di fare altro. Però quello che fa, lo fa con una capacità sorprendente.
Prendete per esempio il progetto presentato di recente dall’Allen Institute for Artificial Intelligence di Seattle, negli Stati Uniti: è un software superspecializzato, chiamato Craft, che è capace di creare un cartone animato dei Flintstones tutto da solo, partendo soltanto da una descrizione scritta delle situazioni da animare. Craft è stato addestrato dandogli in pasto circa 25.000 spezzoni di questi popolarissimi cartoni classici, ciascuno dotato di una descrizione testuale, ed è capace di decodificare queste istruzioni e cucire insieme gli elementi contenuti negli spezzoni per creare un cartone nuovo.
I risultati non sono da premio Oscar, ma sono un’anteprima dimostrativa di quello che potrebbe accadere fra qualche anno: invece di spendere mesi e milioni per creare un cartone animato, gran parte del lavoro ripetitivo, tipico di questa forma d’arte, che richiede dieci o più disegni per ogni secondo di durata, potrebbe essere delegato a un’intelligenza artificiale specializzata, lasciando agli artisti gli aspetti creativi e permettendo quindi a chiunque di portare sullo schermo storie che prima sarebbero state impossibilmente costose e laboriose da animare.
Un altro esempio di queste intelligenze artificiali dedicate a un singolo compito arriva da Google, che ha presentato una dimostrazione di un sistema che riesce a isolare una singola voce da un gruppo di persone che parlano contemporaneamente: una cosa che noi umani sappiamo fare molto bene ma che i computer normalmente fanno malissimo. La tecnica usata da questo sistema è molto umana: l’intelligenza artificiale si addestra guardando i volti delle persone mentre parlano singolarmente e impara a riconoscere i suoni corrispondenti alla forma della loro bocca. A quel punto è capace di scartare tutti i suoni estranei.
I risultati sono impressionanti e le applicazioni sono molto promettenti: questo sistema di Google sarebbe utilizzabile per esempio per rendere più comprensibile la voce di una persona che fa una videochiamata in una stanza affollata e rumorosa oppure per creare apparecchi acustici che fanno sentire bene solo la voce della persona che ci sta davanti e smorzano tutte le altre, per esempio in un locale pieno di persone che chiacchierano.
Naturalmente questo tipo di ascolto selettivo, che Google sta già valutando di includere in alcuni dei propri prodotti, sarebbe utilizzabile anche in modi più controversi. Per esempio, sarebbe perfetto per le intercettazioni o per spiare una conversazione in un ambiente rumoroso. Ma di certo il settore dell’intelligenza artificiale, che sta compiendo progressi rapidissimi, non è pronto per dominarci tutti, ma è solo un utile servo. Almeno per ora.
Questo articolo è basato sul testo preparato per il mio servizio La Rete in 3 minuti per Radio Inblu del 16 aprile 2018. Fonte aggiuntiva: Engadget,
Lunar di Christian Stangl si prende forse qualche libertà di troppo qua e là con le immagini originali (le stelle nel cielo lunare, per esempio), ma le sue animazioni delle fotografie originali delle missioni Apollo sono assolutamente magiche nella loro tridimensionalità. Buona visione.
Questo articolo vi arriva grazie alla gentile donazione di “achille*” e “remo*” ed è stato aggiornato dopo la pubblicazione iniziale.
In tantissimi (troppi per ringraziarvi singolarmente) mi avete segnalato la notizia che Nvidia, per pubblicizzare le proprie nuove schede grafiche GeForce, ha sbugiardato con immagini digitali bellissime una delle tesi preferite di quelli che non credono che siamo andati sulla Luna (CNet; Gizmodo; Fastcolabs; Engadget; Nvidia).
La tesi è che gli astronauti nelle foto delle missioni lunari sono eccessivamente illuminati quando sono in ombra. Secondo i lunacomplottisti, quest'anomalia dimostrerebbe che le foto sono false.
In particolare, questa tesi viene riferita alla foto qui sotto, che mostra Buzz Aldrin, secondo uomo a mettere piede sulla Luna, mentre scende lungo la scaletta e viene immortalato da Neil Armstrong, che è già sulla superficie lunare. Aldrin è nel cono d'ombra del veicolo spaziale (il Sole è a destra), eppure lo si vede benissimo. Come è possibile, senza una fonte di luce aggiuntiva che lo illumini e che sulla Luna non c'era?
Foto NASA AS11-40-5868 (versione a media risoluzione).
Nvidia ha deciso di dimostrare la potenza e la fedeltà di rendering delle proprie schede grafiche ricostruendo fedelmente la scena e soprattutto la riflettività della superficie lunare (nota grazie alle osservazioni telescopiche), dei rivestimenti del modulo lunare e della tuta di Aldrin.
L'illuminazione di qualunque ambiente, infatti, non proviene soltanto dalla fonte primaria di luce, ma scaturisce anche dai riflessi delle superfici circostanti. C'è anche la diffusione atmosferica della luce, che però diventa significativa solo su grandi volumi (sulla Terra, la luce solare diffusa dall'atmosfera rende luminoso tutto il cielo di giorno e quindi schiarisce le zone non direttamente illuminate dal Sole; sulla Luna, mancando un'atmosfera, non c'è diffusione). Se non esistessero questi riflessi, le ombre sarebbero sempre nerissime, sulla Terra come sulla Luna: avrebbero l'aspetto mostrato dal rendering qui sotto, che non calcola i riflessi ed è conforme alla tesi dei lunacomplottisti.
Credit: Nvidia.
Ma dall'osservazione della realtà sappiamo che le ombre non funzionano così: una persona che si mette all'ombra di un albero non diventa una sagoma nera e il lato in ombra di un oggetto non diventa nero come la pece: viene rischiarato dai riflessi delle superfici illuminate adiacenti. In altre parole, lunacomplottisti che sostengono la tesi delle ombre nerissime dimostrano di non sapere un'acca di come funziona la luce.
Usando la potenza di calcolo delle proprie schede grafiche, Nvidia ha incluso anche la riflettività dei materiali circostanti e ha ottenuto il risultato mostrato qui sotto, che corrisponde all'illuminazione della scena calcolata tenendo conto della luce riflessa dalla superficie lunare verso Aldrin e verso il lato in ombra del LM.
Credit: Nvidia.
Il risultato si avvicina alla foto originale della NASA, ma l'astronauta non è illuminato altrettanto fortemente. Manca ancora una fonte di luce. Quale?
La risposta, come già spiegato nel mio libro Luna? Sì, ci siamo andati!, è che la fonte luminosa mancante è il fotografo stesso. Neil Armstrong, infatti, indossa una tuta bianchissima e si trova in pieno sole (lo si nota dai lens flare che colpiscono l'obiettivo della sua fotocamera, in alto a destra nella foto originale), per cui riflette un bel po' di luce solare verso il proprio compagno. Nvidia ha provato ad aggiungere anche questa fonte di luce per certi versi poco intuitiva, usando i parametri di riflettività del materiale della tuta originale, e ha ottenuto il risultato che vedete qui sotto a confronto con l'originale.
A sinistra, la ricostruzione realizzata da Nvidia; a destra, la foto originale.
Credit: Nvidia/NASA.
La tuta di Neil Armstrong, da sola, aggiunge “circa il 10% di luce” ad Aldrin, dice Mark Daly, senior director of content development di Nvidia. L'illuminazione dell'astronauta sulla scaletta nella foto originale, insomma, è giusta e realistica come ce la mostra la NASA e le anomalie asserite dai complottisti sono semplicemente frutto della loro incompetenza.
Il video preparato da Nvidia racconta ulteriori dettagli, compresa la spiegazione illustrata della mancanza delle stelle.
Questo metterà a tacere i lunacomplottisti? Assolutamente no. Diranno che finalmente nel 2014 i processori commerciali hanno raggiunto la potenza di calcolo dei supercomputer ultrasegreti usati dalla CIA nel 1969. O si metteranno a strillare e insultare, come fanno di solito. Pazienza.
Dal punto di vista del debunking, questa indagine di Nvidia in realtà è interessante ma non cambia le cose; è semplicemente un'ulteriore conferma visiva e computazionale di quanto si sapeva già. Inoltre la prova della realtà delle missioni lunari non sta in questa foto, ma nella montagna di dati tecnici e scientifici, nelle conferme da parte dei russi, nelle foto dei siti d'allunaggio che mostrano i veicoli, gli strumenti e le impronte lasciate sulla Luna dagli astronauti, e nell'impossibilità di realizzare, con gli effetti speciali degli anni Sessanta, i fenomeni fisici osservati nelle riprese lunari, come la camminata in gravità ridotta o la caduta parabolica della polvere.
Volendo essere pignoli e rigorosi, i risultati, i dati e i metodi di Nvidia andrebbero resi pubblici per verificare che non si tratti semplicemente di un'astuta trovata pubblicitaria e che l'immagine sintetica non sia stata forzata ad avere l'aspetto giusto. Non che ci siano molti dubbi al riguardo, ma è questione di correttezza.
In questo senso sembra che saremo piacevolmente accontentati, perché sempre Mark Daly ha dichiarato che Nvidia sta creando un'interfaccia utente per consumatori per questa demo e la rilascerà al pubblico nelle prossime settimane. Ed è qui che sta il vero bonus dell'indagine di Nvidia.
Se Daly manterrà la promessa, infatti, potrei comperare un PC e una scheda Nvidia appositamente per arricchire il documentario Moonscape con un rendering che spiega e illustra le immagini originali, ricreandole da varie angolazioni.
Per esempio, questi sono alcuni rendering di Nvidia della posizione di Neil Armstrong durante la foto esaminata:
A sinistra, la posizione di Armstrong durante lo scatto. Aldrin è sul lato opposto del LM.
Credit: Nvidia.
Da quest'angolazione Aldrin è visibile sulla scaletta.
Credit: Nvidia.
La visuale di Armstrong, riflessa nel suo casco.
Credit: Nvidia.
Girando intorno al LM vediamo la scena da una posizione situata a sinistra di Armstrong.
Continuiamo il giro intorno al LM.
Credit: Nvidia.
Avviciniamoci.
Credit: Nvidia.
Quest'esplorazione virtuale permette già ora di arricchire il commento alle immagini dello sbarco sulla Luna con una chicca intrigante. Guardate questo fotogramma, preso dalla diretta TV dello sbarco grosso modo nell'istante in cui fu scattata la foto discussa da Nvidia: vedete la chiazza bianca quasi al centro dell'immagine?
Credit: NASA/Lowry Digital.
Sembra un difetto della telecamera, ma in realtà è la tuta di Neil Armstrong, talmente illuminata dal Sole da risultare sovraesposta. Il rendering di Nvidia da un'angolazione molto simile a quella della telecamera automatica, situata all'esterno del modulo lunare, lo chiarisce perfettamente:
Questo articolo era stato pubblicato inizialmente il 02/08/2013 sul sito della Rete Tre della Radiotelevisione Svizzera, dove attualmente non è più disponibile. Viene ripubblicato qui per mantenerlo a disposizione per la consultazione.
cinemagrafia o cinemagraph. Immagine digitale ibrida fra fotografia e video, nella quale quasi tutto è immobile (come in una fotografia) tranne un dettaglio che si muove (come in un video). Il contrasto fra l'assoluta immobilità di gran parte dell'immagine e il dettaglio in movimento crea effetti visivi ed emotivi molto particolari ed intensi.
Tecnicamente, una cinemagrafia è un'animazione, solitamente in formato GIF, costituita da una serie di fotogrammi che si ripetono ciclicamente. Si realizza partendo da un video, del quale si prende un breve spezzone che ha un'inquadratura fissa e poi, usando appositi programmi, si sceglie un'area nella quale si vuole mantenere il movimento mentre il resto dell'immagine è statico.
Il termine è stato coniato dai fotografi statunitensi Kevin Burg e Jamie Beck, che hanno usato questa tecnica per una serie di foto di moda e di cronaca nel 2011. Alcuni esempi del loro lavoro sono presso Cinemagraphs.com; altre cinemagrafie sono visibili per esempio presso Hongkiat.com o TripwireMagazine.com o cercando il termine in Google o altri motori di ricerca.
Per creare una cinemagrafia si adopera spesso un programma di fotoritocco, ma può anche bastare uno smartphone: l'importante è tenerlo fisso e scegliere una scena nella quale ci sia un movimento preferibilmente ciclico, come lo scorrere dell'acqua di un ruscello o il movimento di una scala mobile. Si possono usare app come Cinemagram, Flixel, Echograph o Kinotopic (per iOS) oppure Fotodanz, Cinemagram o MotionGraph (per Android).
Questo articolo vi arriva grazie alla gentile donazione di “rejetto”.
Un tempo l'animazione digitale non c'era e ci si ingegnava con modelli fisici. Presso StanWinstonSchoool.com c'è una magnifica serie di video del maestro degli effetti speciali Stan Winston che spiega quanti degli effetti di Jurassic Park erano in realtà ottenuti con modelli reali e non con il computer.
Certo, significava costruire un tirannosauro a grandezza naturale, del peso di quattro tonnellate e mezza, capace di muoversi rapidamente grazie ad attuatori idraulici e a una squadra di marionettisti, o di infilare una persona dentro una tuta animatronica che gli faceva assumere le sembianze di un Velociraptor. Ma funzionava. Funzionava talmente tanto che molte delle scene di Jurassic Park che comunemente si pensa che siano “fatte al computer” son in realtà ottenute alla vecchia maniera: con il lavoro di artigiani e scultori che saldano alluminio e acciaio e costruiscono oggetti, non immagini virtuali.
Anche se non seguite l'inglese, guardate lo stesso questi video, specialmente se siete giovani figli dell'era digitale: le immagini parlano da sole e vi spalancheranno un mondo. I dettagli della storia del T-Rex sono in questo post sul sito di Stan Winston. Buona visione.
Magnifica visualizzazione dell'impronta dell'umanità sulla Terra
Questo video riassume l'Antropocene: il periodo di ascesa ed espansione della specie umana fino a diventare una forza capace di cambiare il pianeta. Mai come oggi così tanti hanno avuto così tanto; mai come oggi corriamo il rischio di rovinare l'unica casa che abbiamo.
Se qualcuno vuole fare un'edizione in italiano di questo video, c'è una versione senza voce narrante e senza grafici qui su Vimeo. Maggiori informazioni sul progetto sono presso Anthropocene.info. Grazie a @Giovanni_Pt per la segnalazione.
John Lasseter a Milano: grande lui, patetici gli organizzatori
Ieri sera sono andato con la famiglia e gli amici a vedere John Lasseter a Milano. Lasseter è stato splendido: ha raccontato sia l'evoluzione straordinariamente rapida dell'animazione digitale, sia il processo creativo che porta alla creazione di un grande film d'animazione. Molti pensano che sia "tutto fatto dal computer", ma Lasseter, con il supporto di spezzoni, bozzetti e immagini di lavorazione, ha chiarito molto eloquentemente che il computer è solo la tavolozza, ma la creatività è tutta merito degli artisti e della loro passione, e che il fondamento di un buon film non è la tecnologia, ma la scelta di una buona storia, di personaggi accattivanti e di un'ambientazione curata e credibile.
Lasseter ha anche presentato in anteprima italiana Small Fry, un cortometraggio con i personaggi di Toy Story, e ha risposto alle domande del pubblico con parole ricche di entusiasmo, ispirazione e incoraggiamento. Qui sotto vedete un paio delle foto scattate da Rodri Van Click e pubblicate qui per sua gentile concessione.
Per Meet The Media Guru, che ha coordinato l'evento, ho invece solo parole di compatimento. La serata con Lasseter era prenotabile via Internet, e questo dava l'impressione che chi aveva prenotato (come me e i miei amici) avesse diritto a un posto a sedere. Fa parte della logica di base dell'organizzazione di un evento: si accettano solo tante prenotazioni quanti sono i posti disponibili, poi le prenotazioni si chiudono, e chi non ha prenotato non entra. Non è un concetto high-tech, innovativo e introdotto da poco. Giusto?
Sbagliato. Quando siamo arrivati davanti al Dal Verme, dove si teneva l'incontro, c'era una calca incredibile. Centinaia di persone ammassate davanti agli ingressi, senza nessuna distinzione fra prenotati e improvvisati; disorganizzazione totale; spintoni, insulti e litigate; mezz'ora di ritardo e intervento drastico di un paio di vigili del fuoco per contenere la spinta della folla incazzatissima di essere tenuta all'oscuro della situazione e di scoprire che la prenotazione (fatta, si noti, dando a Meet the Media Guru il proprio indirizzo di mail e nome e cognome) non valeva nulla ed era una totale presa in giro.
Alcuni di noi sono riusciti a entrare lo stesso, per scoprire che gli unici posti liberi erano quelli dietro il banco regia, per cui Lasseter l'abbiamo visto solo in video pur essendo in sala. Altri sono stati convogliati in una sala separata, che proponeva lo streaming dell'incontro, con un audio insopportabilmente distorto e alto e senza gli spezzoni dei video della Pixar per presunti “problemi di copyright”. Non c'era traduzione: o capivi l'inglese, o ti arrangiavi. Molti sono andati a casa furibondi di aver buttato via la serata. Non è andata meglio anche ai giornalisti, ad alcuni dei quali la conferma dell'accredito stampa è arrivata solo due ore prima della conferenza stampa.Vergogna.
Cari sponsor, la prossima volta che organizzate un evento, chiamate un circolo di cucito invece di questi superfighi che si danno arie da Web 2.0, invitano a tweetare e poi incespicano su cose fondamentali come la gestione dei posti a sedere. Le comari del circolo lasciano perdere cellulare e iPad e sanno sicuramente fare di meglio con carta e penna. E soprattutto buon senso.
Non sono sicuro di aver capito come diavolo hanno fatto a rendere tridimensionali ed esplorabili queste foto d'epoca usando Blender, ma l'effetto è magico (nel senso clarkiano di "qualunque tecnologia sufficientemente avanzata è indistinguibile dalla magia"). Se qualcuno riesce a scoprire come è stato ottenuto questo video, lo scriva nei commenti.
Patrick Boivin, l'autore di questo video, dice che da bambino c'erano due cose che desiderava tanto: un cane vero e un camminatore imperiale AT-AT della Kenner. Ecco il risultato del suo sogno e del suo talento.
Una bella lezione per tutti quelli che dicono che è facile fare gli effetti speciali con il computer, come se il computer facesse tutto da solo. Il software usato è Dragon Stop Motion (Mac e Windows).
Sintel, cortometraggio di draghi scaricabile legalmente
Se cercate un modo originale per spiegare il concetto di open source a un profano, provate Sintel: un video di animazione digitale indipendente e coraggioso tanto nella trama quanto nella realizzazione. Tanto per cominciare, come il software open source, Sintel è legalmente scaricabile e copiabile, a differenza dei film commerciali, e già questo colpisce parecchio.
In secondo luogo, è una storia di draghi fatta tutta da appassionati: al progetto hanno collaborato migliaia di donatori, aiutati da un finanziamento dell'ente cinema olandese, e una quindicina di artisti del mondo del fumetto, animatori e sceneggiatori professionisti insieme a tanti appassionati e programmatori sparsi per il mondo. Poi c'è il fatto che è stato realizzato usando software libero (in particolare Blender, GIMP, Inkscape) che non costa nulla e non ha vincoli anticopia.
Il progetto Sintel è partito a maggio 2009 ed è stato presentato a fine settembre 2010 al festival del cinema olandese di Utrecht. Ci sono voluti sedici mesi di lavorazione da parte di un team internazionale per ottenere i suoi 15 minuti molto intensi, dove le emozioni certo non mancano. Lo potete vedere qui su Youtube oppure qui sotto.
Sintel è la dimostrazione di quello che oggi si può fare con il software libero e con tanta determinazione e passione, senza dipendere da esigenze commerciali e da budget fantastiliardari: è costato in tutto 400.000 euro. Pochissimo, per gli standard hollywoodiani.
Ma la vera differenza non è il costo: è la filosofia open source. Fare un film open source significa non solo tutto quello che ho descritto sopra. Significa anche che tutto il materiale digitale, dalla musica alla grafica ai modelli, verrà reso disponibile e sarà riusabile liberamente da chiunque secondo le regole della licenza Creative Commons per creare nuove storie. Un concetto inimmaginabile nel cinema tradizionale, dove un riutilizzo del genere è vietatissimo.
Sintel è in inglese, con sottotitoli in varie lingue scaricabili separatamente, ma si segue anche senza conoscere a menadito la lingua. È una storia epica, adatta a tutta la famiglia (tranne forse i più piccoli) e incentrata su un tema che va molto in questo periodo: una ragazzina diventa amica di un drago e senza accorgersene cresce insieme a lui. Mostratelo ai vostri figli, se ne avete, o ai vostri studenti, e poi dite loro che possono scaricare, condividere e modificare liberamente i personaggi, i modelli e tutto quello che hanno visto: avrete spiegato loro che cos'è l'open source.
Se vi piace l'idea, con lo stesso sistema sono stati realizzati dalla Blender Foundation anche altri due cortometraggi d'animazione liberi: Big Buck Bunny e Elephants Dream. Buona (libera) visione.