Tesla : un nouvel accident mortel pose question, la sécurité routière s’en mêle

 
La Sécurité Routière américaine (NHTSA) ouvre une nouvelle enquête sur le système de conduite semi-autonome Autopilot de Tesla après qu’un véhicule de la marque a percuté un camion de pompier, entraînant la mort du conducteur. Ce n’est pas la première fois que le constructeur a affaire aux autorités sur ce sujet.

L’Autopilot est-il vraiment aussi fiable que Tesla veut nous le faire croire ? On est logiquement en droit de se poser la question. Car depuis plusieurs années déjà, les affaires impliquant ce système de conduite semi-autonome arrivée en 2015 sur la Model S se multiplient. Et le récent accident qui a eu lieu le 18 février dernier dans le comté de Contra Costa, en Californie n’arrange rien.

Une nouvelle enquête

Il y a quelques jours, les pompiers intervenaient sur un accident de la route, avec leur camion garé au milieu de la route afin de bloquer l’accès et sécuriser la zone. Quand soudain, une Tesla s’est encastrée dans le véhicule de secours, tuant instantanément son conducteur tandis que le passager a été désincarcéré et conduit à l’hôpital. Quatre pompiers ont également été évacués.

Si pour l’heure, rien n’indique que l’Autopilot était enclenché au moment de l’accident, la NHTSA (National Highway Traffic Safety Administration), équivalent de la Sécurité Routière aux États-Unis souhaite tout de même des explications de la part de Tesla. Et pour cause, l’organisme enquête depuis deux ans déjà sur une douzaine d’accidents ayant impliqué des véhicules de secours avec les voitures électriques de la marque.

En effet, le système de conduite semi-autonome de niveau 2 aurait tendance à se désactiver à l’approche d’accidents routiers ou tout simplement ne pas voir les camions de pompiers garés sur le bas-côté sur l’autoroute

. Si Tesla avait opéré une mise à jour à distance censée corriger le problème en 2021, comme le rappelle Automotive News, il semblerait donc que celle-ci n’ait pas vraiment fonctionné. Attention toutefois, la police ne sait pas encore si l’Autopilot était actif au moment de l’accident.

Rappelons que le constructeur a décidé de faire évoluer son Autopilot, en retirant les capteurs afin de le faire reposer uniquement sur les caméras. Un système baptisé Tesla Vision jugé plus performant par la marque.

Si le constructeur affirmait que son système de conduite semi-autonome permettrait d’éviter environ 40 accidents par jour, ce n’est donc pas totalement l’avis de la NHTSA qui a lancé plusieurs enquêtes. Celle-ci vient d’ailleurs tout juste d’ordonner le rappel de plus de 362 ​​000 voitures de la marque, en raison d’une défaillance de l’Autopilot, qui ne respecterait alors pas le Code de la Route et qui aurait des comportements dangereux.

De nombreux bugs

Parmi eux, le freinage fantôme, bien connu des propriétaires de Tesla, dont la voiture freine fortement d’un seul coup sans raison apparente. Un phénomène qui n’est pas spécifique aux véhicules de la marque, mais serait courant sur ceux-ci. À tel point que certains clients ont alerté les autorités, alors qu’Elon Musk avait affirmé avoir corrigé le souci. Un nouveau coup dur pour la réputation de la marque, récemment mise à mal par les révélations d’un ingénieur qui affirmait que la vidéo faisant la promotion de l’Autopilot en 2016 était truquée.

En avril 2021, nous démontrions par ailleurs que les chiffres publiés par Tesla concernant l’efficacité de son système de conduite autonome étaient en réalité légèrement biaisés. Il y a quelques mois, la justice américaine accusait également Elon Musk de tromper ses clients sur les capacités réelles de son Autopilot, alors que celui-ci avait affirmé en 2016 que « la personne sur le siège du conducteur n’est là que pour des raisons juridiques. Elle ne fait rien du tout. La voiture se conduit toute seule« .

Quoi qu’il en soit, les données les plus récentes prouvent toutefois que les Tesla sont plus sûres que les autres voitures, avec moins de risques d’avoir un accident.

Navigation Autopilot sur Tesla Model 3 // Source : Bob Jouy pour Frandroid

En juin 2022, la menace d’une interdiction du système planait sur la marque, alors que la NHTSA avait ouvert une enquête à la suite d’un accident impliquant une voiture de la marque dont l’Autopilot se serait désactivé une seconde avant l’impact. Est-ce un moyen pour la firme de se dédouaner, en affirmant que son système n’était pas actif lors du choc et que c’est donc la responsabilité du conducteur qui est engagée ?

Quoi qu’il en soit, et si ce dispositif est loin d’être parfait, il convient d’attendre les résultats des différentes enquêtes avant de se prononcer. Il y a quelques semaines pourtant, lors de la finale du Super Bowl, l’association The Dawn Project diffusait une publicité à charge contre Tesla, accusant l’Autopilot de provoquer des accidents. C’est elle qui avait également affirmé que celui-ci percutait les enfants, ce qui avait été démenti par plusieurs experts.

Le constructeur prépare actuellement une nouvelle version de son matériel, le Hardware 4, qui sera inauguré sur le Cybertruck et qui pourrait rendre la conduite autonome et notamment le FSD (full self-driving) plus performant et sûr.


Envie de retrouver les meilleurs articles de Frandroid sur Google News ? Vous pouvez suivre Frandroid sur Google News en un clic.