DÉTTROIT –
L’agence de sécurité routière du gouvernement américain enquête sur le système « Full Self-Driving » de Tesla après avoir reçu des informations faisant état d’accidents dans des conditions de faible visibilité, dont un qui a tué un piéton.
La National Highway Traffic Safety Administration a déclaré dans des documents qu’elle avait ouvert l’enquête jeudi après que l’entreprise a signalé quatre accidents lorsque des Teslas ont rencontré des reflets du soleil, du brouillard et de la poussière en suspension dans l’air.
Outre la mort du piéton, un autre accident a fait des blessés, a indiqué l’agence.
Les enquêteurs examineront la capacité de la « conduite entièrement autonome » à « détecter et réagir de manière appropriée aux conditions de visibilité réduite sur la route et, si c’est le cas, les circonstances ayant contribué à ces accidents ».
L’enquête porte sur environ 2,4 millions de Tesla des années modèles 2016 à 2024.
Un message a été laissé vendredi sollicitant les commentaires de Tesla, qui a déclaré à plusieurs reprises que le système ne pouvait pas se conduire tout seul et que les conducteurs humains devaient être prêts à intervenir à tout moment.
La semaine dernière, Tesla a organisé un événement dans un studio d’Hollywood pour dévoiler un robot-taxi entièrement autonome, sans volant ni pédales. Musk, qui a déjà promis des véhicules autonomes, a déclaré que la société prévoyait de faire fonctionner les modèles Y et 3 autonomes sans conducteur humain l’année prochaine. Les robotaxis sans volant seraient disponibles en 2026 à partir de la Californie et du Texas, a-t-il déclaré.
L’impact de l’enquête sur les ambitions de Tesla en matière de conduite autonome n’est pas clair. La NHTSA devrait approuver tout robotaxi sans pédales ni volant, et il est peu probable que cela se produise pendant que l’enquête est en cours. Mais si l’entreprise tente de déployer des véhicules autonomes dans ses modèles existants, cela relèvera probablement des réglementations de l’État. Il n’existe pas de réglementation fédérale spécifiquement axée sur les véhicules autonomes, même si ceux-ci doivent respecter des règles de sécurité plus larges.
La NHTSA a également déclaré qu’elle examinerait si d’autres accidents similaires impliquant une « conduite entièrement autonome » se sont produits dans des conditions de faible visibilité, et elle demandera à l’entreprise des informations pour savoir si des mises à jour ont affecté les performances du système dans ces conditions.
«En particulier, cet examen évaluera le calendrier, l’objectif et les capacités de telles mises à jour, ainsi que l’évaluation par Tesla de leur impact sur la sécurité», indiquent les documents.
Tesla a signalé les quatre accidents à la NHTSA en vertu d’une ordonnance de l’agence couvrant tous les constructeurs automobiles. Une base de données de l’agence indique que le piéton a été tué à Rimrock, en Arizona, en novembre 2023 après avoir été heurté par une Tesla Model Y 2021. Rimrock se trouve à environ 161 kilomètres au nord de Phoenix.
Le ministère de la Sécurité publique de l’Arizona a déclaré dans un communiqué que l’accident s’est produit peu après 17 heures le 27 novembre sur l’Interstate 17. Deux véhicules sont entrés en collision sur l’autoroute, bloquant la voie de gauche. Un Toyota 4Runner s’est arrêté et deux personnes sont descendues pour aider au contrôle de la circulation. Une Tesla Model Y rouge a ensuite percuté le 4Runner et l’une des personnes qui en sortaient. Une femme de 71 ans de Mesa, en Arizona, a été déclarée morte sur les lieux.
La collision s’est produite parce que le soleil était dans les yeux du conducteur de Tesla, donc celui-ci n’a pas été inculpé, a déclaré Raul Garcia, responsable de l’information publique du département.
Tesla a rappelé à deux reprises le système «Full Self-Driving» sous la pression de la NHTSA, qui a demandé en juillet des informations aux forces de l’ordre et à l’entreprise après qu’une Tesla utilisant le système ait heurté et tué un motocycliste près de Seattle.
Les rappels ont été émis parce que le système était programmé pour faire fonctionner les panneaux d’arrêt à basse vitesse et parce que le système ne respectait pas le code de la route. Les deux problèmes devaient être résolus grâce aux mises à jour logicielles en ligne.
Les critiques ont déclaré que le système de Tesla, qui utilise uniquement des caméras pour détecter les dangers, ne dispose pas de capteurs appropriés pour être entièrement autonome. Presque toutes les autres entreprises travaillant sur les véhicules autonomes utilisent des capteurs radar et laser en plus des caméras pour mieux voir dans l’obscurité ou dans des conditions de mauvaise visibilité.
Musk a déclaré que les humains conduisent avec seulement la vue, donc les voitures devraient pouvoir conduire avec uniquement des caméras. Il a qualifié le lidar (détection et télémétrie de la lumière), qui utilise des lasers pour détecter des objets, de « tâche insensée ».
Les rappels « Full Self-Driving » sont arrivés après une enquête de trois ans sur le système de pilote automatique moins sophistiqué de Tesla qui s’est écrasé dans des situations d’urgence et sur d’autres véhicules garés sur les autoroutes, dont beaucoup avec des feux d’avertissement clignotants.
Cette enquête a été clôturée en avril dernier après que l’agence a fait pression sur Tesla pour qu’elle rappelle ses véhicules afin de renforcer un système faible qui garantissait l’attention des conducteurs. Quelques semaines après le rappel, la NHTSA a commencé à enquêter pour savoir si le rappel fonctionnait.
La NHTSA a commencé son enquête sur les accidents du pilote automatique en 2021, après avoir reçu 11 rapports selon lesquels des Tesla utilisant le pilote automatique avaient heurté des véhicules d’urgence stationnés. Dans des documents expliquant pourquoi l’enquête a été close, la NHTSA a déclaré avoir finalement découvert 467 accidents impliquant le pilote automatique, faisant 54 blessés et 14 morts. Le pilote automatique est une version sophistiquée du régulateur de vitesse, tandis que le « Full Self-Driving » a été présenté par Musk comme capable de conduire sans intervention humaine.
L’enquête ouverte jeudi pénètre dans un nouveau territoire pour la NHTSA, qui considérait auparavant les systèmes de Tesla comme une aide aux conducteurs plutôt que comme une conduite autonome. Avec la nouvelle enquête, l’agence se concentre sur les capacités du « Full Self-Driving » plutôt que de simplement s’assurer que les conducteurs y prêtent attention.
Michael Brooks, directeur exécutif du Center for Auto Safety à but non lucratif, a déclaré que l’enquête précédente sur Autopilot n’avait pas examiné pourquoi les Tesla ne voyaient pas et ne s’arrêtaient pas pour les véhicules d’urgence.
«Avant, ils mettaient la responsabilité sur le conducteur plutôt que sur la voiture», a-t-il déclaré. «Ici, ils disent que ces systèmes ne sont pas capables de détecter de manière appropriée les risques pour la sécurité, que les conducteurs y prêtent attention ou non.»