Tesla comparaît encore une fois devant la justice à cause de son logiciel d’assistance à la conduite. La famille d’un motard mort dans un accident impliquant une Model 3 avec l’Autopilot allumé accuse le constructeur automobile d’avoir mis en circulation un logiciel dangereux pour la sécurité routière.
Tesla fait face à un nouveau procès aux Etats-Unis, intenté par la famille d’un motard mort renversé par une voiture du constructeur. C’est un énième procès pour l’entreprise d’Elon Musk et cette fois-ci, ce n’est pas le Full Self Driving (FSD) en bêta qui est accusé d’avoir causé l’accident, mais bien le logiciel Autopilot disponible pour tous.
Une Tesla Model 3 avec l’Autopilot allumé renverse un motard
Reuters rapporte que Landon Embry, 34 ans, était renversé en 2022 par une Model 3. La voiture Tesla avait violemment percuté l’arrière de la Harley Davidson sur une autoroute près de Salt Lake City, aux États-Unis. À 130 kilomètres / heure, la collision est fatale pour le motard. Le logiciel de conduite Autopilot était alors allumé mais n’a pas évité la moto.
Dans leur plainte, les avocats de la famille soutiennent que le propriétaire de la Model 3 impliquée était “fatigué et n’était pas en état de conduire comme un conducteur normalement prudent.” Faussement rassuré par l’Autopilot, ce dernier “aurait dû identifier le danger que représentait la moto du défunt en sa présence.“
En effet, “un conducteur raisonnablement prudent, ou un système de freinage automatique adéquat, aurait pu ralentir ou s’arrêter sans entrer en collision avec le motocycle.” Pour les avocats, le logiciel est donc défectueux et constitue une menace sur les route. Et ils ne sont pas les seuls à le penser.
À lire > Tesla va apporter de nouveaux styles de conduite à l’Autopilot
Tesla multiplie les procès à cause de l’Autopilot et du FSD
Ces dernières années, Tesla a été poursuivi à plusieurs reprises par les familles de personnes décédées ou blessées dans des accidents impliquant ses fonctions d’assistance à la conduite. Cela lui a valu une enquête de l’administration américaine conclue en 2023, pour qu’une autre soit rouverte cette année.
Tesla avait toujours rejeté toute responsabilité, affirmant que les conducteurs étaient fautifs. En effet, le logiciel leur indique de maintenir leur attention sur la route. Pour l’entreprise, l’Autopilot ne constitue qu’une assistance supplémentaire à la conduite, au même titre qu’un régulateur de vitesse. En outre, Elon Musk a déclaré que Tesla ne procéderait jamais à un règlement à l’amiable pour “une affaire injuste“.
Jusqu’à cette année. En avril 2024, Tesla décidait de régler à l’amiable (en payant) un procès intenté par la famille du propriétaire d’une Model X. Cet ingénieur d’Apple était décédé après avoir percuté une barrière avec sa voiture en mode Autopilot. L’enquête avait toutefois montré que l’homme était dissipé par un jeu vidéo mobile au moment de l’accident.
On attend le jugement de ce nouveau procès avec impatience, pour savoir si Tesla compte à nouveau sortir le carnet de chèques préventivement, ou si la justice américaine pourra donner son avis sur l’Autopilot.
- Tesla est attaqué en justice par la famille d’un motard mort dans un accident de la route.
- L’accident impliquait une Model 3 avec le logiciel d’assistance à la conduite Autopilot.
- C’est un énième procès qui accuse Tesla d’avoir mis au point un logiciel dangereux.