Zoox d’Amazon rappelle Robotaxis à cause d’un bug dangereux de franchissement de voie

0
13

Zoox, la division robotaxi autonome d’Amazon, a rappelé 332 véhicules en raison d’une faille logicielle critique les faisant dériver de manière inattendue dans le trafic venant en sens inverse. Le rappel, mandaté par la National Highway Traffic Safety Administration (NHTSA), intervient alors que la confiance du public dans la sécurité des véhicules autonomes reste faible : des données récentes de l’AAA montrent que seulement 13 % des personnes se sentent en sécurité à bord de ces véhicules.

Le problème : dériver vers le danger

Le problème est apparu pour la première fois le 26 août lorsqu’un robotaxi Zoox a effectué un large virage à droite, faisant un écart dans une voie venant en sens inverse avant de s’y arrêter brièvement. Une analyse ultérieure a révélé 62 incidents similaires entre le 26 août et le 5 décembre. Dans ces cas, les véhicules ont soit traversé inutilement des lignes de voie, notamment à proximité des intersections, soit se sont arrêtés directement sur la trajectoire de la circulation venant en sens inverse. Ce comportement augmente considérablement le risque de collision, même si aucun accident n’a été signalé avant le rappel.

Causes profondes et correctifs logiciels

Zoox a attribué le bug à plusieurs facteurs :
– Voitures garées mal identifiées (étiquetées à tort comme obstacles mobiles)
– Recalculs d’itinéraire inattendus
– Tentatives erronées pour éviter de bloquer la circulation transversale aux intersections.

La société a publié une première mise à jour logicielle le 7 novembre, suivie d’une autre plus tôt ce mois-ci. Depuis le 19 décembre, tous les véhicules Zoox circulant sur la voie publique ont été mis à jour avec les derniers correctifs. Cependant, Zoox maintient qu’elle continuera à surveiller les performances des véhicules et à affiner le logiciel pour éviter de futurs événements.

Pourquoi c’est important

Ce rappel met en évidence les défis permanents liés au déploiement de systèmes entièrement autonomes dans des conditions réelles. Même des erreurs logicielles mineures peuvent avoir de graves conséquences dans les scénarios de conduite, démontrant que la technologie de conduite autonome n’est pas encore infaillible. L’incident souligne la nécessité de tests rigoureux, de redondance et de mises à jour continues en direct pour garantir la sécurité avant une adoption généralisée par le public.

Bien qu’aucune collision ne se soit produite, cet incident renforce le fait que les véhicules autonomes nécessitent encore des améliorations et une surveillance approfondies avant de pouvoir fonctionner en toute confiance sans intervention humaine.