L’Autopilot qui équipe les véhicules électriques Tesla continue d’assurer la sécurité même lorsqu’il n’est pas explicitement activé. Une vidéo publiée sur YouTube illustre comment la sécurité active d’une Model 3 prend le relai pour éviter une collision avec un piéton.
En attendant la livraison du système de pilotage entièrement automatisé promis par Elon Musk en fin d’année dernière, les Tesla sont déjà en mesure d’assurer partiellement la conduite. Elles peuvent notamment suivre une voie, changer de file, ou emprunter une bretelle d’autoroute sans intervention du conducteur. Même lorsque la fonction n’est pas activée, le système embarqué reste en alerte pour assurer la sécurité des passagers et éviter les accidents. Dans une vidéo postée sur YouTube, le propriétaire d’une Tesla Model 3 illustre son efficacité.
La sécurité active d’une Tesla prend le contrôle pour éviter un piéton
Suite à un accident sur une autoroute, le trafic est fortement ralenti, et un piéton en profite pour traverser. Au moment où il passe devant une Tesla Model 3, la sécurité active du véhicule électrique prend automatiquement la décision de freiner pour éviter la collision.
Tesla lance un nouveau chargeur domestique avec Wi-Fi intégré
Sur la vidéo, on ne se rend pas vraiment compte du danger. Les voitures roulent à faible allure, et n’importe quel conducteur aurait également freiné pour éviter de percuter le piéton. Le propriétaire précise qu’il ne l’a pas vu venir. Au moment où il surgit devant son véhicule, le conducteur avait entamé une manœuvre pour changer de voie, et avait tourné la tête pour vérifier dans l’angle mort que la voie était libre.
L’assistant de conduite est encore imparfait et les Tesla ont parfois des réactions inexplicables qui sont source d’accidents. Les statistiques publiées par le constructeur montrent néanmoins que l’Autopilot rend ses véhicules plus sûrs qu’une voiture classique. Pas assez selon les organismes d’homologation européens qui ont décidé de limiter ses capacités.
Cette décision pose d’ailleurs la question des méthodes d’homologation des assistants de conduite. Pour être autorisés, ils doivent remplir un certain nombre de critères qui sont vérifiés en condition réelle d’utilisation. N’ayant pas accès au code source des logiciels embarqués, les tests ne permettent pas de connaitre clairement toutes les décisions que pourrait prendre une intelligence artificielle face à une situation inédite. Le problème est d’autant plus épineux qu’il met en jeu la notion d’éthique dans certains cas. Quel comportement donner à une IA qui doit choisir entre sauver ses passagers ou renverser des piétons ?
Tesla vs. BMW : qui a le meilleur autopilot ?
Source : YouTube