Bimbi reali per testare Autopilot di Tesla: com'è nato il test shock?

Negli USA uno youtuber ha cercato dei bimbi reali per provare la sicurezza di Tesla Autopilot: come siamo arrivati a tutto questo?

Bimbi reali per testare Autopilot di Tesla: com'è nato il test shock?
Articolo a cura di

Il sistema Autopilot di Tesla è di certo uno dei più sicuri del momento (Tesla Autopilot evita 40 incidenti al giorno con la frenata automatica) ma anche uno dei più controversi. Controverso perché c'è un particolare dibattito in corso fra specialisti di settore e fan sfegatati di Elon Musk, pronti a difendere a spada tratta l'operato del loro magnate preferito: Autopilot, che con le funzioni di Full Self Driving Beta è in grado di prendere totalmente il controllo del mezzo in ambito cittadino ed extra urbano, riesce a frenare in automatico in presenza di bambini sulla strada oppure no? Le vetture californiane hanno avuto non pochi problemi su questo fronte nel recente passato, poiché il software non sempre riconosceva i bambini come pedoni, e lo scontro pubblico ha portato persino a un pericoloso test nel mondo reale con dei bambini veri chiamati a raccolta. Cerchiamo di fare ordine e di capire cos'è successo.

Il presunto fallimento di Tesla Vision

Tutto è iniziato con la pubblicazione di un video da parte della società Luminar, un'azienda che produce scanner LiDAR. Questi scanner sono presenti a bordo di diverse auto premium e prototipi per la Guida Autonoma di Livello 4 e 5, Tesla però ha deciso di farne a meno perché troppo costosi e potenzialmente superflui (così Elon Musk ha rinunciato ai LiDAR). Le Tesla si affidano oggi solo alle telecamere presenti a bordo, con l'intelligenza artificiale che rileva oggetti e pedoni e decide quando frenare ed eventualmente fermarsi.

Questo sistema si chiama Tesla Vision e rappresenta un assoluto unicum nel panorama attuale. Nessun'altra compagnia automotive al mondo ha ancora avuto l'ardore di rinunciare a radar e sensori in favore dei soli occhi elettronici, e questa scelta ha ovviamente portato qualche grattacapo a Elon Musk e soci. Tornando al video di Luminar, si vede chiaramente come una Tesla Model Y lanciata a velocità di crociera urbana non riesca a vedere un manichino bambino - centrandolo in pieno.

Nello stesso istante una vettura dotata di scanner LiDAR, capace di scansionare nel dettaglio l'ambiente circostante ed eventuali ostacoli, è invece in grado di rilevare perfettamente un manichino-bimbo e fermarsi in modo automatico. Tesla Vision ha dunque un pericoloso bug di sicurezza? Le auto californiane sono pericolose per i bambini che attraversano le strade? I fan di Elon Musk sono convinti che non sia così e che il video di Luminar sia in qualche modo "fazioso". È così che siamo arrivati alla ricerca di bimbi reali per un esperimento in difesa di Tesla.

La prova con il Tesla Full Self Driving

Chi segue attentamente le nostre pagine, oppure il mondo che gravita attorno a Elon Musk su Twitter, già conoscerà l'account Whole Mars Blog gestito da un utente di nome Omar Qazi. Qazi è solito pubblicare prove, esperimenti, test eseguiti con la sua Tesla e conosce in profondità possibilità e potenzialità del sistema di Elon Musk. Per questo motivo era più che sicuro che il video di Luminar fosse in qualche modo menzognero e che la sua Tesla fosse perfettamente in grado di riconoscere dei bambini per strada. L'uomo ha così messo un controverso annuncio sul suo profilo Twitter: si è messo alla ricerca di bambini reali per eseguire un test in strada, così da dimostrare al mondo la bontà del sistema Tesla.

Una follia in piena regola per moltissimi utenti del social dei cinguettii, che difatti si sono subito adoperati per fermare l'esperimento. Così non è stato, anzi, qualcuno ha messo davvero a disposizione i suoi figli per effettuare un test con il Tesla Full Self Driving attivo. L'esito finale delle prove si può vedere in un video pubblicato sempre da Whole Mars Blog sul suo account Twitter - nel quale si vede effettivamente che la Tesla è in grado di riconoscere i bambini per strada e frenare all'occorrenza.

Fra il test Luminar e quelli di Whole Mars Blog però ci sono delle sostanziali differenze: la società voleva dimostrare come a velocità attorno ai 60 km/h la Tesla Model Y non fosse assolutamente in grado di riconoscere tempestivamente un bambino per strada, Qazi invece ha effettuato i suoi test a velocità estremamente più ridotte (al di sotto dei 30 km/h), anche per non mettere sul serio a repentaglio la salute dei piccoli.

Subito pronto a prendere i comandi qualora le cose si mettessero male, Qazi ha mostrato come le manovre a bassa velocità del Full Self Driving fossero perfettamente in grado di rilevare la presenza dei bimbi sulla strada, c'è però anche stata qualche manovra non propriamente riuscita, ad esempio con un manichino fermo in strada la vettura ha deciso di non fermarsi del tutto, magari per far attraversare completamente il potenziale bimbo-pedone, ma di spostarsi leggermente a destra e passare ugualmente, un'azione che nel mondo reale avrebbe potuto essere estremamente pericolosa.

Cosa pensiamo noi di tutto questo circus montato ad hoc da un fan sfegatato Tesla? Che la verità sta probabilmente nel mezzo: Autopilot è sicuramente molto avanzato ma non è ancora esente da errori (abbiamo provato Tesla Autopilot al suo massimo potenziale). Di certo con degli scanner LiDAR montati sull'auto la sicurezza sarebbe di gran lunga più alta, Elon Musk ha però un progetto chiaro in mente e siamo sicuri che allenerà la sua intelligenza artificiale al massimo delle sue possibilità per rendere la sua tecnologia più sicura di anno in anno.

Nel frattempo le tecnologie più diffuse oggigiorno (Full Self Driving Beta compreso) sono ancora di Livello 2, almeno legalmente, significa che l'attenzione del conducente dev'essere sempre massima, con gli occhi ben rivolti alla strada, mani sul volante e piedi sui pedali.
La frenata d'emergenza testata da Luminar è un po' diversa, nel senso che è un sistema che dovrebbe intervenire laddove il conducente è in qualche modo distratto, oppure quando un ostacolo si palesa sulla strada in maniera improvvisa - è dunque un aiuto ulteriore rispetto alle possibilità umane, uno scanner hardware aggiuntivo potrebbe dunque essere una sicurezza in più, almeno idealmente, poi ogni evento in strada ha caratteristiche uniche e differenti. Arriverà un giorno in cui le tecnologie di bordo saranno davvero impeccabili, non succederà però oggi stesso.