Comment Elon Musk et Tesla trichent avec le système de conduite autonome FSD

 
Le Full Self-Driving de Tesla, fer de lance de la conduite autonome selon Elon Musk, cache un secret bien gardé. Des employés témoignent d’une pratique qui pourrait remettre en question l’intégrité même du système.
Tesla FSD

Et si le FSD marchait parfaitement… mais seulement si vous vous appelez Elon Musk. C’est la réalité que des employés de Tesla viennent de dévoiler, jetant une ombre sur les promesses mirobolantes du Full Self-Driving (FSD).

Pour aller plus loin
On a roulé avec le FSD de Tesla : on vous raconte cette expérience hors du commun

Elon Musk n’a jamais caché son ambition : faire de Tesla le leader incontesté de la conduite autonome. Ils vont même dévoiler un taxi autonome en août. Le système FSD (Full Self-Driving) est présenté comme la crème de la crème, capable d’apprendre et de s’améliorer constamment. Mais voilà, il semblerait que cette amélioration ne soit pas aussi impartiale qu’on pourrait le croire.

Tesla FSD

Selon des révélations faites à Business Insider, le processus d’apprentissage du FSD repose en grande partie sur l’analyse humaine de vidéos enregistrées pendant la conduite. Jusque-là, rien de choquant. Le problème ? Ces analyses ne seraient pas menées de manière équitable.

Un traitement de faveur qui fait grincer des dents

Accrochez-vous bien, car ça risque de vous faire bondir : d’après plus d’une douzaine d’employés actuels et anciens de Tesla, les vidéos analysées pour améliorer le FSD ne sont pas choisies au hasard. En réalité, deux catégories de conducteurs auraient la priorité absolue :

  • Elon Musk lui-même ;
  • Un groupe select de conducteurs VIP, notamment des YouTubers influents.

Concrètement, cela signifie que les employés chargés d’analyser les données de conduite devaient se concentrer sur les trajets d’Elon Musk, allant jusqu’à étudier spécifiquement les routes menant à sa résidence. Certains rapportent même avoir reçu l’instruction explicite de travailler sur les données de la voiture personnelle du PDG.

Les conséquences de ce favoritisme algorithmique

Vous vous demandez sûrement : « Mais pourquoi faire ça ? ». Et bien, le résultat est simple : le FSD connaît par cœur les trajets d’Elon Musk. Pas étonnant donc que ses déplacements se passent comme sur des roulettes ! Comme l’a si bien résumé un ancien employé : « Il semble assez clair que l’expérience d’Elon est meilleure que celle des autres. Il a expérimenté le logiciel à son meilleur.« 

Mais Elon Musk n’est pas le seul à bénéficier de ce traitement de faveur. Les influenceurs et YouTubers pro-Tesla voient aussi leurs trajets minutieusement analysés et optimisés. L’objectif ? S’assurer que ceux qui sont les plus susceptibles de partager leur expérience en ligne aient une vision positive du FSD.

Cette révélation soulève de sérieuses questions éthiques. D’une part, de nombreux employés ont exprimé leur malaise face à cette pratique qu’ils jugent malhonnête. Certains ont même qualifié cette politique de tricherie pure et simple. D’autre part, cette approche biaisée pourrait expliquer les divergences importantes dans les performances du FSD rapportées par différents utilisateurs.

En effet, si le système est principalement optimisé pour les routes de Californie (où Elon Musk et de nombreux VIP résident), comment peut-il prétendre offrir une expérience équivalente dans d’autres États ou pays ? Cette focalisation sur des itinéraires spécifiques pourrait bien être à l’origine des critiques et des déceptions exprimées par certains utilisateurs du FSD.


Pour ne rater aucun bon plan, rejoignez notre nouveau channel WhatsApp Frandroid Bons Plans, garanti sans spam !