Il 20 ottobre 2016 Tesla pubblicò un video che mostrava una Tesla Model X mentre effettuava un tragitto senza alcun intervento del conducente, creando enorme scalpore mediatico. Ne scrissi anch’io all’epoca con entusiasmo. Ma il video è sostanzialmente un falso, confermato da uno dei suoi creatori in una testimonianza in tribunale.
Il video iniziava con la dicitura (in inglese) “La persona seduta al posto del conducente è presente solo per motivi legali. Non sta facendo nulla. L’auto guida da sola” (“The person in the driver’s seat is only there for legal reasons. He is not doing anything. The car is driving itself”).
Il video era questo, tuttora presente sul sito di Tesla con il titolo “Hardware per guida autonoma completa su tutte le Tesla” (“Full Self-Driving Hardware on All Teslas”):
Nel video, l’auto esce da un box di un’abitazione privata, si immette in strada, si ferma agli stop e ai semafori, gestisce sorpassi e cambi di corsia, imbocca l’uscita autostradale e conclude il proprio viaggio nel parcheggio della sede centrale di Tesla (al 3500 di Deer Creek Road, a Palo Alto, in California), scaricando il conducente e girando da sola per il parcheggio fino a trovare autonomamente un posto libero, fermandosi per lasciar passare un pedone e infine facendo manovra per posteggiare.
Ma nel corso di un processo attualmente in corso in California per la morte di Walter Huang, avvenuta nel 2018 a bordo di una Tesla schiantatasi durante l’uso del software di assistenza alla guida, la testimonianza di Ashok Elluswamy (PDF, 183 pagine), direttore del software Autopilot di Tesla e direttamente coinvolto nella realizzazione del video, ha spiegato che il video in questione era una messinscena (da pag. 71 in poi):
- quel percorso specifico era stato pre-mappato in 3D, cosa che va completamente contro il principio di una guida autonoma usabile ovunque, anche su percorsi non pre-mappati, dichiarato esplicitamente da Tesla, e Musk ha detto che le strade pre-mappate (usate da altre case costruttrici) sono “una pessima idea” e generano “un sistema estremamente fragile”;
- nonostante questo aiuto di premappatura, la ripresa mostra in realtà soltanto un tentativo riuscito dopo numerosi fallimenti e non dimostra una situazione ripetibile affidabilmente;
- durante questi tentativi precedenti, il conducente aveva dovuto intervenire ripetutamente e l’auto usata nel video era salita sul cordolo andando a sbattere contro una recinzione nel parcheggio.
Elluswamy ha dichiarato che “l’intento del video era mostrare le potenzialità del sistema” (“I believe the intent of the video was to showcase the potential of the system”, pag. 78) e “non di rappresentare accuratamente quello che era disponibile ai clienti nel 2016” ma di “descrivere quello che era possibile creare” (“the intent of the video was not to accurately portray what was available for customers in 2016. It was to portray what was possible to build the system”, pag. 79). Non usa mai la parola “staged” (“inscenato”) che è stata usata da varie fonti (per esempio Gizmodo, Reuters, The Register e Ars Technica), ma il senso tecnico è sostanzialmente quello: il video non rispecchiava affatto le capacità del software di Tesla destinato al pubblico.
Però il giorno precedente, ossia il 19 ottobre 2016, Tesla aveva pubblicato un articolo che titolava che “tutte le auto Tesla attualmente in produzione hanno hardware per la guida autonoma completa” (“All Tesla Cars Being Produced Now Have Full Self-Driving Hardware”) e ribadiva il concetto nel testo (“as of today, all Tesla vehicles produced in our factory – including Model 3 – will have the hardware needed for full self-driving capability at a safety level substantially greater than that of a human driver”).
Inoltre il video era stato interpretato, anche dai siti degli appassionati di Tesla, come una dimostrazione delle reali capacità di guida autonoma di Tesla, non come una dimostrazione di intenti. Lo avevano celebrato presentandolo per esempio come “una dimostrazione video di una Model X equipaggiata con la suite di sensori per guida autonoma più recente, che viene installata nei veicoli di Tesla adesso, mentre usa la versione più avanzata del software, che verrà distribuita agli utenti gradualmente nel corso del prossimo anno” (“a video demonstration of a Model X equipped with its latest self-driving sensor suite, which is going into Tesla’s vehicles right now, and using the most advanced version of the software, which will be pushed to owners gradually throughout the coming year”) (Fred Lambert su Electrek, 20 ottobre 2016).
Del resto, Elon Musk aveva pubblicizzato il video dichiarando che l’auto guidava “da sola (assolutamente nessun input umano) su strade urbane, autostrade e vie, poi trova un posto per parcheggiare... nel cercare un parcheggio, l’auto legge i cartelli stradali per sapere se è autorizzata a parcheggiare, ed è per questo che ha scartato il posto riservato ai disabili” (“Tesla drives itself (no human input at all) thru urban streets to highway to streets, then finds a parking spot... When searching for parking, the car reads the signs to see if it is allowed to park there, which is why it skipped the disabled spot”).
Un altro video, più lungo e con la stessa dicitura “La persona seduta al posto del conducente è presente solo per motivi
legali. Non sta facendo nulla. L’auto guida da sola”, era stato pubblicato successivamente.
Siamo nel 2023, e neanche oggi le Tesla hanno le capacità mostrate nel video. Non ce l’hanno neppure le circa 100.000 Tesla dotate del software più avanzato, il Full Self-Drive beta o FSD beta, che è disponibile solo in alcuni paesi, aumenta progressivamente di prezzo e oggi costa ben 15.000 dollari (o si può avere in abbonamento a 99 o 199 dollari al mese a seconda delle dotazioni preesistenti) in aggiunta al prezzo di listino dell’auto. Nessuna Tesla può andare a parcheggiare da sola senza nessun a bordo, come nota Elluswamy nella sua deposizione (pag. 95).
Va precisato che circolavano già, ma non presso il grande pubblico, dubbi su questo video. Li avrebbe avuti chi avesse avuto la profonda accortezza di notare che c’era un rapporto tecnico di Tesla al Department of Motor Vehicles (DMV) californiano (intitolato Disengagement of Autonomous Mode) che segnalava che l’azienda nel 2016 aveva coperto 550 miglia in modalità autonoma, con 168 “sganciamenti” (“disengagement”), ossia eventi nei quali la guida autonoma era andata in crisi e/o c’era stato un intervento del conducente. Questi eventi erano avvenuti nel periodo appena prima del rilascio del video in questione e quindi erano un sintomo dei problemi di affidabilità incontrati. Li avrebbe avuti chi avesse dato retta a un articolo del New York Times del 2021 che notava che vari dipendenti di Tesla che avevano lavorato al video avevano detto che rappresentava falsamente le capacità del sistema di guida di Tesla. Il NYT scriveva già all’epoca che il percorso era stato pre-mappato e che l’auto aveva colpito una barriera ed era stato necessario ripararla (The Register). Ma la deposizione di Elluswamy ha portato all’attenzione generale la reale natura del video.
Finora non è emersa alcuna dichiarazione pubblica di Tesla nella quale fosse stato chiarito, all’epoca, che il video era solo un “intento” di mostrare le potenzialità future e non corrispondeva a quanto realmente disponibile a Tesla e implementabile nelle auto commerciabili. Secondo Bloomberg (copia non paywallata), in alcune mail interne aziendali Elon Musk aveva dichiarato inizialmente ai suoi sviluppatori del software FSD che avrebbe detto pubblicamente che il video mostrava un esempio di capacità future (“I will be telling the world that this is what the car *will* be able to do, not that it can do this upon receipt”), ma poi aveva dato ordine esplicito di iniziare il video con quella frase, dettata da lui personalmente, che parlava solo di auto che guidava da sola, senza alcuna indicazione della natura reale del video o di potenzialità future.
Questi sono i fatti.
Sulla base di questi fatti, sembra ragionevole concludere che il video è oggettivamente ingannevole per il grande pubblico e quindi per l’acquirente medio di una Tesla, che vedendo quel video plausibilmente avrà pensato che acquistandone una in quel momento (nel 2016) avrebbe ottenuto un’auto già dotata di tutto l’hardware necessario per la guida autonoma (come del resto dichiarato esplicitamente da Tesla) che doveva semplicemente attendere l’approvazione e il rilascio del software già quasi pronto.
Chi ha pagato cifre ingenti per avere il Full Self-Drive beta e ancora oggi, a distanza di sei anni, non ha ancora nulla di simile a quanto sembrava imminente nel 2016 sarà comprensibilmente deluso e probabilmente si sentirà buggerato e vittima di frode in commercio: in sostanza, ha anticipato parecchi soldi a Tesla per un servizio apparentemente già pronto ma che non ha mai ricevuto. Tutto il software attuale di Tesla, compreso l’FSD beta, è infatti classificato formalmente come SAE Livello 2 e quindi la condotta del veicolo è totalmente sotto la responsabilità del conducente, che deve restare pronto a intervenire in ogni momento.
Sono anch’io un utente Tesla (ho una Model S del 2016, senza FSD), e sulla base della classificazione attuale a Livello 2 del software di Tesla (guida assistita, non autonoma), della mia esperienza e delle segnalazioni di utenti che hanno sia Autopilot (il software standard) sia FSD beta (quello più avanzato) non posso che raccomandare estrema attenzione e massima diffidenza verso questi prodotti. Sono affidabili in condizioni semplici (poco traffico, strade ben demarcate), ma falliscono in maniera imprevedibile, in situazioni che un conducente normale non considererebbe mai pericolose, e falliscono spesso senza dare al conducente il tempo di reagire e correggere. Consiglio inoltre, a chi non ha una Tesla ma se ne trova una davanti mentre guida, di mantenere abbondantemente la distanza di sicurezza per evitare tamponamenti in caso di frenata improvvisa della Tesla quando la strada è completamente libera (il cosiddetto phantom braking).
La NHTSA,
l’ente statunitense per la sicurezza del traffico autostradale, ha in
corso una serie di indagini sui sistemi di guida assistita di Tesla,
avviate in seguito a centinaia di segnalazioni di casi di frenata senza alcun motivo, ad almeno due investimenti mortali di motociclisti e a vari
tamponamenti di veicoli d’emergenza fermi lungo la strada. Inoltre il Dipartimento di Giustizia statunitense sta indagando per capire se Tesla abbia ingannato i consumatori, gli investitori e gli enti di regolamentazione facendo dichiarazioni non supportate a proposito delle capacità della sua tecnologia di assistenza ai conducenti”.
Le conseguenze di queste indagini e l’attuale comunicazione al grande pubblico della natura fittizia di quel video del 2016 mettono seriamente in dubbio la credibilità dell’azienda sul fronte della guida autonoma. Caveat emptor.