Tesla se retrouve une nouvelle fois sous le feu des projecteurs, mais pas pour de bonnes raisons. La National Highway Traffic Safety Administration (NHTSA) a lancé une enquête sur plusieurs accidents impliquant des véhicules Tesla équipés du mode Full Self-Driving (FSD). Cette technologie, souvent critiquée, pourrait être à l’origine de nombreux incidents. Alors que Tesla ambitionne de révolutionner la conduite autonome, les résultats de cette enquête pourraient avoir des conséquences majeures pour l’entreprise d’Elon Musk.
Résumé en 3 points
La National Highway Traffic Safety Administration (NHTSA) a récemment lancé une enquête sur 58 accidents impliquant des véhicules Tesla dotés du mode Full Self-Driving (FSD). Ces incidents ont causé plus d’une douzaine de collisions et d’incendies, ainsi que près d’une vingtaine de blessés. L’enquête concerne 2,9 millions de voitures, soit l’ensemble des modèles Tesla équipés de cette technologie. Le mode FSD est souvent critiqué car il pourrait induire les conducteurs en erreur sur le réel niveau d’autonomie des véhicules.
Elon Musk a longtemps promis que le logiciel FSD transformerait les véhicules Tesla en taxis autonomes grâce à une simple mise à jour logicielle. Cependant, des voix critiques, comme celle de l’analyste Seth Goldstein de Morningstar, remettent en question la fiabilité du logiciel. Ross Gerber, investisseur et ancien partisan de Tesla, décrit le projet de conduite autonome comme un « gigantesque laboratoire » qui, selon lui, ne produit pas les résultats escomptés.
Cette nouvelle enquête s’ajoute à d’autres investigations en cours par la NHTSA. L’agence examine aussi des accidents survenus dans des conditions de faible visibilité, des incidents impliquant la fonction «Summon», et des retards présumés dans la déclaration d’accidents. En août, un jury de Miami a condamné Tesla à verser plus de 240 millions de dollars après un crash mortel en 2019 impliquant le système Autopilot, distinct du FSD.
Malgré les promesses d’Elon Musk, les régulateurs affirment que le système de conduite autonome de Tesla est toujours considéré comme un logiciel d’assistance de niveau 2. Cela signifie qu’il nécessite une vigilance constante du conducteur. Ross Gerber insiste sur le fait que Tesla doit reconnaître les faiblesses du logiciel et adapter le matériel en conséquence. Il suggère que si des améliorations ne sont pas apportées, les autorités pourraient envisager d’interdire ces tests sur route ouverte.
Tesla, fondée en 2003 par un groupe d’ingénieurs, s’est imposée comme un acteur majeur de l’industrie automobile électrique. Sous la direction d’Elon Musk, l’entreprise a innové en matière de véhicules électriques et de technologies automobiles, mais elle fait également face à des défis réglementaires et techniques. Le développement de la conduite autonome représente une ambition majeure pour Tesla, malgré les obstacles rencontrés sur son chemin.