← Revenir aux actualités

Ils tentent d’expliquer l’accident d’une Tesla Model X à Mountain View Rédigé par Philippe Schwoerer le 09 Avr 2018 à 00:00 0 commentaires

Le 23 mars dernier, à hauteur de Mountain View, une ville coincée entre Palo Alto, Sunnyvale et Los Altos (Californie), un homme de 38 ans a perdu la vie au volant de son Tesla Model X dont l’Autopilot était activé. Plusieurs propriétaires de différents modèles de la marque ont tenté d’expliquer, vidéos à l’appui, ce qui a pu se produire. Cette affaire est l’occasion de rappeler 2 points essentiels : il a déjà été estimé que l’assistance à la conduite du constructeur a pu sauver des vies en détectant suffisamment tôt des situations d’accidents ; les mains du conducteurs doivent toujours rester sur le volant et l’humain être prêt à intervenir en cas de défaillance de l’Autopilot.

Ce que l’on sait de l’accident

Le Tesla Model X est venu s’encastrer à vive allure sur un bout d’un muret central en béton qui commence à séparer, en 2 nouvelles voies à plusieurs files, l’autoroute 101. Il a été établi que l’Autopilot était actif et que le conducteur n’a pas tenté d’intervenir sur la conduite du véhicule. Déjà très endommagé, le SUV électrique a ensuite été percuté par 2 autres engins. Une trentaine de pompiers ont dû intervenir pour éteindre l’incendie du Model X dont la batterie s’était embrasée. Si le conducteur a pu être extrait de l’habitacle à temps, il est toutefois décédé à l’hôpital des suites de ses blessures.

Sans réactions du conducteur

Quelques jours après l’accident, les ingénieurs Tesla ont pu mettre en évidence que l’Autopilot était activé au moment du choc, et que le conducteur avait reçu encore quelques secondes plus tôt « plusieurs avertissements visuels et un sonore lui rappelant qu’il devait maintenir les mains sur le volant ». Des indications qu’il semble avoir ignorées, plaident les enquêteurs maison. Ces derniers assurent que « le conducteur a eu environ cinq secondes et 150 mètres de vue dégagée sur la barrière et la partie endommagée de la glissière de sécurité, mais les enregistrements du véhicule montrent qu’aucune action n’a été entreprise ».

Tentatives d’explications

Depuis cet accident, plusieurs propriétaires de Tesla ont essayé de reproduire au même endroit le problème et/ou de l’expliquer. Ils ont réalisé des vidéos ensuite déposées sur Youtube. Ainsi ce conducteur d’une Model 3 qui s’exprime sous le pseudo « Privater ». En amont du point d’impact sur l’autoroute 101, il attire l’attention autour du marquage de la route, où des coupures sont présentes à même la chaussée. Elles suivent d’abord les lignes blanches au sol, puis s’en écartent avant de se retrouver chacune à quelques centimètres de nouvelles marques de peinture qui annoncent la séparation de la voie de circulation et l’approche du muret de séparation. « Comme vous pouvez le voir, ces deux coupes pourraient tromper les caméras sous la lumière du Soleil », tente comme explication Privater. En commentaire, un automobiliste, avec « Brad Allen » pour pseudo, abonde dans son sens, avouant : « J’ai presque atteint ce diviseur en conduisant moi-même, trompé par exactement les mêmes marques au même endroit ». Il ajoute : « C’était l’un des moments les plus effrayants de ma vie derrière un volant ! Et Ce n’est pas la seule fois où j’ai mal interprété ces marques ».

On élimine le Soleil

Sur Youtube, un propriétaire de Tesla Model S au pseudo « cpddan » a effectué plusieurs tentatives au même endroit, de jour comme de nuit. Et c’est dans cette dernière situation qu’il s’est retrouvé lui aussi lancé par l’Autopilot sur le muret en béton. Son expérience élimine le Soleil comme élément indispensable à l’erreur d’interprétation de l’application. En outre, le positionnement précis de la voiture dans la file doit avoir une grande importance, puisque l’anomalie ne se produit pas à chaque passage. Shantanu Joshi a lui aussi reproduit le cas au même endroit, mais en plein jour. Un commentaire à la suite de sa vidéo Youtube affirme qu’un point similaire existe sur une voie du même genre à Chicago.

Et l’obstacle ?

Dans cette affaire de l’accident de Mountain View, il y a au moins 2 problèmes principaux. Tout d’abord la confusion des files de circulation par l’Autopilot. Mais aussi, puisqu’il semble que la voiture n’ait pas déclenché automatiquement le dispositif de freinage, l’absence de détection du muret de séparation. Et là, on ne peut s’empêcher de rapprocher la défaillance de l’Autopilot avec celle du système embarqué dans une voiture autonome en test par Uber, quelques jours plus tôt. Toujours aux Etats-Unis, à Tempe, près de Phoenix, l’engin n’avait pas ralenti alors qu’une personne passait juste devant. La précision sur le fait que la victime, – également décédée -, ne traversait pas sur un passage pour piétons, ne change rien au problème.

Haro sur l’Autopilot ?

Doit-on conclure de l’accident de Mountain View que l’Autopilot de Tesla n’est pas fiable, et même potentiellement dangereux ? En mai 2016, un Américain a déjà perdu la vie alors que ce dispositif était en fonction dans sa Model S. Un camion venait de barrer la route à la voiture au niveau d’une intersection. Quelques mois plus tard, les conclusions de l’autorité américaine en charge de la sécurité routière (NHTSA) indiquait que le dispositif était hors de cause. Mieux : Le rapport publié début 2017 estimait que l’AutoPilot réduirait de 40% les accidents. Dans le cas de Mountain View, l’Autopilot pourra-il être totalement blanchi. Une chose est cependant certaine : Si Tesla demande aux conducteurs de ses modèles de maintenir les mains sur le volant quand le système est activé, ce n’est pas pour rien ! C’est une question de prudence et de bon sens ! L’œil humain pourra toujours anticiper une situation qui en est train de se préparer hors du champ de vision immédiat des caméras embarquées. De même, les dispositifs autonomes détectent des obstacles qui échappent aux conducteurs. En soi, l’Autopilot n’est pas un mauvais outil, bien au contraire. Mais on doit le laisser à sa place de système d’aide à la conduite, et non pas lui permettre de se substituer au conducteur. La voiture parfaitement autonome est peut-être pour demain : elle n’est pas encore sur nos routes !

partager cette actualité sur :

Commentaires

Laisser un commentaire

Veuillez noter s'il vous plaît

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Rejoindre le réseau AVEM

Vidéos

Toutes les vidéos
Newsletter