INFORMAZIONI SCHEDA
di

C'è un problema: Autopilot rischia di andare in crisi quando si trova davanti immagini proiettate. Un nuovo video mostra un drone perseguitare una Model X, proiettando finte immagini 2D di pedoni, segnali stradali e veicoli. Basterebbe un proiettore da poche centinaia di dollari per mandare in totale confusione la guida autonoma di Tesla.

Non si tratta di uno scherzo di cattivo gusto, ma di un esperimento condotto dalla Ben-Gurion University per evidenziare i limiti dei sistemi attuali di guida autonoma.

Usando il proiettore i ricercatori sono riusciti a persuadere la Model X a compiere in automatico azioni potenzialmente pericolose, come frenare di colpo per evitare un pedone — che tuttavia non era reale, ma una semplice immagine proiettata in 2D.

I ricercatori hanno anche dimostrato che proiettando un segnale stradale è possibile manipolare la velocità del veicolo, con Autopilot che non sarebbe più in grado di distinguere tra i limiti stradali reali, e quelli fittizi indicati dal cartello proiettato.

Tutte le immagini proiettate non sono particolarmente realistiche, tant'è che l'occhio umano è perfettamente in grado di distinguerle. Oggi le auto Tesla non hanno sistemi di guida 100% autonoma, e le leggi (oltre che il produttore) impongono all'automobilista di monitorare costantemente la strada, anche quando Autopilot è attivo. In uno scenario ordinario, almeno in teoria l'automobilista dovrebbe essere in grado di percepire l'inganno, prendendo immediatamente i controlli del veicolo e disattivando Autopilot.

Nel video si può vedere come i ricercatori siano stati in grado di condurre anche attacchi tempestivi: ad esempio il drone proietta il finto ostacolo o la finta segnaletica per pochi secondi, per poi prendere il volo e sparire. In questo caso è possibile che l'automobilista non si renda conto della minaccia, continuando ad affidarsi ad Autopilot — che nel frattempo ha già registrato l'immagine fittizia, agendo di conseguenza.

Quanto è interessante?
3