Des questions de sécurité soulevées sur les véhicules à conduite autonome de Tesla
La Presse Canadienne|Publié le 28 août 2024Les derniers incidents surviennent à un moment crucial pour Tesla. (Photo: Jay Janner/Austin American-Statesman via AP, Archives)
Detroit — À trois reprises au cours des quatre derniers mois, William Stein, analyste technologique chez Truist Securities, a accepté l’invitation d’Elon Musk d’essayer les dernières versions du système de conduite entièrement autonome de Tesla.
Une Tesla équipée de cette technologie, selon l’entreprise, peut se déplacer d’un point à un autre avec une intervention humaine minime. Pourtant, chaque fois que William Stein conduisait l’une des voitures, a-t-il déclaré, le véhicule effectuait des manœuvres dangereuses ou illégales. Son dernier essai routier au début du mois a laissé son fils de 16 ans, qui l’accompagnait, «terrifié», a-t-il relaté.
Les expériences de William Stein, ainsi qu’un accident impliquant une Tesla dans la région de Seattle qui a tué un motocycliste en avril, ont attiré l’attention des régulateurs fédéraux.
Les systèmes de conduite automatisée de Tesla font déjà l’objet d’une enquête depuis plus de deux ans en raison de dizaines d’accidents qui ont soulevé des inquiétudes en matière de sécurité.
Les problèmes ont amené les personnes qui surveillent les véhicules autonomes à devenir plus sceptiques quant à la capacité du système automatisé de Tesla à fonctionner en toute sécurité à grande échelle.
William Stein dit douter que Tesla soit même proche de déployer une flotte de robotaxis autonomes d’ici l’année prochaine comme Elon Musk l’a prédit.
Un moment décisif
Les derniers incidents surviennent à un moment crucial pour Tesla. Elon Musk a déclaré aux investisseurs qu’il était possible que la conduite entièrement autonome soit en mesure de fonctionner de manière plus sécuritaire que les conducteurs humains d’ici la fin de cette année, voire l’année prochaine.
Et dans moins de deux mois, l’entreprise devrait dévoiler un véhicule construit expressément pour être un robotaxi. Pour que Tesla puisse mettre des robotaxis sur la route, Elon Musk a déclaré que l’entreprise montrerait aux régulateurs que le système peut conduire de manière plus sécuritaire que les humains. Selon les règles fédérales, les Tesla devraient respecter les normes nationales de sécurité des véhicules.
Elon Musk a publié des données montrant le nombre de kilomètres parcourus par accident, mais uniquement pour le système Autopilot de Tesla, moins sophistiqué. Les experts en sécurité affirment que ces données ne sont pas valables, car elles ne prennent en compte que les accidents graves avec déploiement de coussins gonflables et ne montrent pas la fréquence à laquelle les conducteurs humains ont dû prendre le relais pour éviter une collision.
La conduite entièrement autonome est utilisée sur la voie publique par environ 500 000 propriétaires de Tesla, soit un peu plus d’une Tesla sur cinq en circulation aujourd’hui. La plupart d’entre eux ont payé 8000 $ US ou plus pour le système optionnel.
L’intervention humaine demeure requise
La société a prévenu que les voitures équipées du système ne peuvent pas réellement se conduire elles-mêmes et que les automobilistes doivent être prêts à tout moment à intervenir si nécessaire. Tesla affirme également qu’elle suit le comportement de chaque conducteur et suspendra leur capacité à utiliser la conduite entièrement autonome s’ils ne surveillent pas correctement le système. Récemment, la société a commencé à appeler le système «Conduite entièrement automatique (supervisée)».
Elon Musk, qui a reconnu que ses prédictions passées concernant l’utilisation de la conduite autonome se sont révélées trop optimistes, a promis en 2019 une flotte de véhicules autonomes d’ici la fin de 2020. Cinq ans plus tard, de nombreux observateurs de la technologie disent qu’ils doutent que cela puisse fonctionner à travers les États-Unis comme promis.
«Ce n’est même pas proche, et ce ne sera pas le cas l’année prochaine», a déclaré Michael Brooks, directeur général du Center for Auto Safety.
La voiture que William Stein conduisait était une Tesla Model 3, qu’il a récupérée dans un salon d’exposition de Tesla du comté de Westchester, au nord de New York. La voiture, le véhicule le moins cher de Tesla, était équipée du dernier logiciel de conduite entièrement autonome. Elon Musk dit que le logiciel utilise désormais l’intelligence artificielle pour aider à contrôler la direction et les pédales.
Pendant son trajet, William Stein a relaté que la Tesla semblait fluide et plus humaine que les versions précédentes. Mais sur un trajet de moins de 16 kilomètres, il a dit que la voiture a fait un virage à gauche depuis une voie de passage alors qu’elle grillait un feu rouge.
«C’était stupéfiant», a-t-il signalé.
Il a expliqué qu’il n’avait pas pris le contrôle de la voiture parce qu’il y avait peu de circulation et que, sur le moment, la manœuvre ne semblait pas dangereuse. Plus tard, cependant, la voiture a roulé au milieu d’une allée, à cheval sur deux voies de circulation dans la même direction. Cette fois, il dit être intervenu.
La dernière version de la conduite entièrement autonome, a écrit William Stein aux investisseurs, ne «résout pas le problème de l’autonomie» comme l’a prédit Elon Musk. Elle ne «semble pas non plus se rapprocher des capacités d’un robotaxi». Lors de deux essais précédents, en avril et en juillet, William Stein a déclaré que les véhicules Tesla l’avaient également surpris par des comportements dangereux.
Tesla n’a pas répondu aux messages pour commenter.
Même s’il pense que Tesla finira par gagner de l’argent grâce à sa technologie de conduite, William Stein ne prévoit pas de robotaxi sans conducteur dans un avenir proche. Il a prédit que le système sera considérablement retardé ou limité dans les déplacements.
Il y a souvent un écart important, a souligné William Stein, entre ce que dit Elon Musk et ce qui est susceptible de se produire.
Une technologie pas à point
Alain Kornhauser, qui dirige les études sur les véhicules autonomes à l’université de Princeton, a déclaré avoir conduit une Tesla empruntée à un ami pendant deux semaines et avoir constaté qu’elle repérait systématiquement les piétons et détectait les autres conducteurs.
Bien que la voiture fonctionne bien la plupart du temps, Alain Kornhauser a dit qu’il devait prendre le contrôle lorsque la Tesla faisait des mouvements qui l’effrayaient. Il prévient que la conduite entièrement autonome n’est pas prête à être laissée sans surveillance humaine dans tous les endroits. «Cette chose, a-t-il dit, n’est pas au point où elle peut aller n’importe où.»
Alain Kornhauser pense que le système pourrait fonctionner de manière autonome dans des zones plus petites d’une ville où des cartes détaillées aident à guider les véhicules. Il se demande pourquoi Elon Musk ne commence pas par proposer des trajets à plus petite échelle.
«Les gens pourraient vraiment utiliser la mobilité que cela pourrait apporter», a-t-il remarqué.
Depuis des années, les experts avertissent que le système de caméras et d’ordinateurs de Tesla n’est pas toujours capable de repérer les objets et de déterminer ce qu’ils sont. Les caméras ne peuvent pas toujours voir par mauvais temps et dans l’obscurité. La plupart des autres sociétés de robotaxis autonomes, telles que Waymo d’Alphabet et Cruise de General Motors, combinent des caméras avec des capteurs radar et laser.
«Si vous ne pouvez pas voir le monde correctement, vous ne pouvez pas planifier, vous déplacer et agir correctement dans le monde», a indiqué Missy Cummings, professeure d’ingénierie et d’informatique à l’université George Mason.
Selon la spécialiste, même les voitures qui sont équipées de lasers et de radars ne peuvent pas toujours conduire de manière fiable, ce qui soulève des questions de sécurité concernant Waymo et Cruise. Les représentants de Waymo et Cruise ont refusé de commenter.
Phil Koopman, professeur à l’université Carnegie Mellon qui étudie la sécurité des véhicules autonomes, croit qu’il faudra de nombreuses années avant que les véhicules autonomes fonctionnant uniquement sur l’intelligence artificielle soient capables de gérer toutes les situations du monde réel.
«L’apprentissage automatique n’a pas de sens commun et apprend étroitement à partir d’un grand nombre d’exemples, a-t-il souligné. Si l’ordinateur qui conduit se retrouve dans une situation à laquelle il n’a pas été formé, il est susceptible d’avoir un accident.»
En avril dernier, dans l’État de Washington, près de Seattle, une Tesla utilisant la conduite entièrement autonome a heurté et tué un motocycliste, ont déclaré les autorités. Le conducteur de la Tesla, qui n’a pas encore été accusé, a déclaré aux autorités qu’il utilisait la conduite entièrement autonome tout en regardant son téléphone lorsque la voiture a percuté le motocycliste par l’arrière. Le motocycliste a été déclaré mort sur place.