Mort dans son Tesla Model X, l’ingénieur d’Apple avait rapporté un problème d’Autopilot

Un ingénieur d’Apple a perdu la vie au volant de sa Tesla Model X à cause d’une défaillance supposée de l’Autopilot. Outre l’aspect sensationnel du dramatique fait divers, il rappelle l’imperfection et la difficulté d’évaluer le comportement des systèmes d’assistance à la conduite pilotés par une intelligence artificielle.

Un fait divers dramatique survenu en mars 2018 met à nouveau en cause l’Autopilot d’une Tesla. Reuters rapporte la mort de Walter Huang, un ingénieur d’Apple de 38 ans, qui conduisait un Model X sur une autoroute près de Mountain View en Califronie.

Image 1 : Mort dans son Tesla Model X, l’ingénieur d’Apple avait rapporté un problème d'Autopilot

À environ 110 km/h, le véhicule en Autopilot s’est écrasé contre une barrière de sécurité qui sépare l’autoroute d’une bretelle de sortie. Le National Transportation Safety Board (NTSB), une agence indépendante et responsable des enquêtes sur les accidents liés aux transports, vient de rendre publiques ses constatations.

Un problème avec le pilotage automatique de Tesla avait été signalée

L’agence nous apprend que Mr Huang avait signalé à plusieurs reprises un comportement anormal de l’Autopilot qui dirigeait le véhicule sur la zone située entre l’autoroute et la bretelle. L’étude des données du véhicule montre en effet que le conducteur a dû reprendre le contrôle du véhicule lors des trajets précédents.

Tesla désactive à distance l’Autopilot d’une Model S d’occasion

Elle indique que le jour de l’accident, Mr Huang n’est pas intervenu pour corriger l’assistant de conduite. L’enquête a également révélé que ses mains ne se tenaient pas près du volant pendant les 6 secondes précédant la collision, et pendant environ un tiers du trajet. L’Autopilot l’a d’ailleurs averti deux fois visuellement, et une fois avec une alerte sonore.

Enfin, le NTSB a établi que le conducteur jouait sur son smartphone à cette période, sans pouvoir néanmoins assurer qu’il interagissait avec au moment précis de l’accident. Tesla n’a pas fait de commentaire, l’agence prévoit une audition le 25 février prochain.

L’Autopilot de Tesla est-il vraiment sûr ?

Le NTSB se montre très critique envers le système d’assistance à la conduite de Tesla. Les cas de défaillance supposée de l’Autopilot restent rares, mais pas isolés, comme cette Model S qui a foncé dans une voiture de police.

De son côté, Tesla vante les mérites de son Autopilot, et se félicite même d’être à l’origine d’une diminution des accidents de la route. Pourtant, si elle se révèle efficace dans certaines situations, notamment quand il faut freiner très fort, cette assistance est encore loin d’être parfaite. Une étude universitaire a d’ailleurs montré les limites de l’Autopilot et des systèmes concurrents, notamment à propos de la perception qu’ils ont de leur environnement.

Des capacités autonomes bridées en Europe

Outre les aspects sensationnels du fait divers rapporté par Reuters, il rappelle la nécessité de mieux comprendre et de mieux encadrer les assistants de conduite, et plus généralement l’usage de l’intelligence artificielle. En Europe, les Tesla ont vu les capacités de leur Autopilot bridées afin de satisfaire aux exigences de l’Union, à l’instar des autres constructeurs automobiles. Une liste de six modifications a été établie. Malgré tout, peut-on véritablement évaluer précisément le comportement d’un système de pilotage automatique ?

À moins de disposer du code source de l’IA et d’une équipe de spécialistes capables de l’interpréter, il semble impossible d’anticiper son comportement dans toutes les situations. Et même en disposant de ces éléments, il faudrait définir les règles auxquelles elle doit se soumettre pour être autorisée. Certaines d’entre elles semblent évidentes, mais d’autres relèvent de choix moraux et culturels qui diffèrent d’une région à l’autre. Quel comportement doit-elle adopter si le choix se résume à sauver la vie des passagers ou celles de passants ?

Google : Sundar Pichai invite les gouvernements à réguler l’intelligence artificielle

Source : Reuters