Autopilot Tesla: perché non è ancora sicuro secondo le autorità L’Autopilot non ha colpe negli incidenti Tesla

Autopilot Tesla: perché non è ancora sicuro secondo le autorità

L’Autopilot non ha colpe negli incidenti Tesla, ma l’NTSB spiega perché non è ancora sicuro dopo l’ultima indagine federale

6 Settembre 2019 - 10:09

Sull’Autopilot Tesla si potrà dire qualsiasi cosa perché tanto chi compra una Tesla non si chiederà mai quanto è davvero sicuro? D’altronde ognuno può avere la propria opinione, ma se di mezzo c’è la sicurezza di guida, le autorità non possono chiudere gli occhi davanti ai frequenti incidenti. L’ultimo in ordine di eventi è l’incidente della Tesla Model S che in Florida ha tamponato un camion dei pompieri. E’ su questo ultimo caso che si è espresso l’NTSB (National Transportation Safety Board) con un’indagine che chiarisce le responsabilità indirette del sistema Autopilot.

L’NTSB INDAGA SULLO STRANO INCIDENTE DELLA TESLA

L’Autopilot (venduto in versione Beta) è sicuramente tra i più evoluti sul mercato ma nel test Euro NCAP della Tesla Model S è venuto fuori che il rischio di fidarsi troppo è alto. La stessa Tesla ricorda ai clienti che “Le attuali funzioni Autopilot richiedono la supervisione attiva del conducente e non consentono la guida autonoma del veicolo”. Il sistema è stato nel tempo aggiornato, “congelato”, vietato in alcuni Paesi e indagato da diverse autorità per la sicurezza. L’incidente avvenuto in Florida nel 2018 è stato raccontato anche dallo stesso “conducente”, se così si può definire. E la sua versione ha fin da subito acceso qualche perplessità.

COSA NON HA FUNZIONATO NELL’AUTOPILOT

Il conducente Robin Geoulla a bordo della Tesla Model S ha dichiarato di non aver visto il camion dei pompieri fermo. Il motivo, pare fosse distratto da caffè, ciambella e radio. Ora al di là del fatto che mangiare al volante è una delle cose più pericolose che si possa fare in auto, dalle indagini dell’NTSB è venuto fuori che l’Autopilot c’entra eccome in questo incidente. Intanto bisogna dire che i motivi per cui l’Autopilot installato sulla Model S dell’incidente aveva una release senza gli ultimi aggiornamenti. I motivi per cui l’Autopilot non è sicuro non sono legati al suo funzionamento, ma alla sua interazione con il conducente. Dal rapporto delle autorità USA infatti l’Autopilot è “assolto” perché circa 0,5 secondi prima dell’impatto si è accorto del camion fermo sulla corsia e ha lanciato un allarme al conducente.

IL PROBLEMA NON E’ LA GUIDA AUTONOMA MA LA DISTRAZIONE AUTOMATICA

Il problema è che alla velocità di 30 mph (48 km/h) il conducente non avrebbe avuto tempo per capire e pensare a cosa fare. E’ questo il motivo per cui fino ad oggi i sistemi di guida semiautonoma e autonoma di livello 3 non sono diffusi. La latenza del guidatore, che abbassa la sua soglia di attenzione nelle fasi di guida pilotata, è un fattore critico quando all’improvviso deve riprendere i comandi. E così è stato anche sulla Tesla Model S di Geoulla: l’Autopilot è risultato attivo negli ultimi 14 minuti di guida e il conducente non ha neppure sfiorato il volante nei 3 minuti e 41 secondi precedenti all’incidente. Intanto Tesla assicura di aver modificato il software per rendere più stringenti i controlli sull’attenzione del conducente.

Commenta con la tua opinione

X