Une mauvaise décision du logiciel causée par l'Homme

L'accident survenu aux Etats-Unis le 18 mars dernier, impliquant un véhicule autonome Uber et un piéton, continue de faire grand bruit quant aux technologies de voitures capables de se conduire seules. En effet, le Volvo XC90 équipé de cette technologie, et destiné au transport routier via la plateforme Uber, avait été impliqué dans un accident avec un piéton, que le SUV avait percuté de plein fouet dans la nuit.

Lire aussi:

Les premiers communiqués avaient alors mis la responsabilité du côté de la personne décédée, expliquant qu'elle avait surgi au dernier moment et que, ne portant pas de tenue pour être plus facilement repérée, elle n'aurait pas pu être mieux évitée par un conducteur que par le système autonome.

L'enquête menée autour de cet accident très médiatisé a poussé les enquêteurs à étudier la réaction du système de détection des obstacles du véhicule, qui aurait bel et bien vu le piéton poussant son vélo en plein milieu de la route. Les capteurs auraient alors décidé que l'obstacle se présentant sur sa voie était ce qu'il détecte comme faux positif, c’est-à-dire une présence négligeable ne nécessitant pas un arrêt du véhicule.

Or, le réglage concernant les faux positifs, qui peuvent par exemple être la détection d'un animal traversant au loin devant le véhicule, ou le passage d'un sac plastique sur la route, se fait manuellement. C'est donc une main humaine qui a décidé une trop grande tolérance concernant les faux positifs, au point que le véhicule ne s'est pas inquiété de la présence d'un humain et d'un vélo en plein milieu de la route.

Voir aussi:

Interdit en Arizona suite à ce problème, le système autonome d'Uber a été suspendu par la firme américaine, et ses tests repoussés à plus tard. Les systèmes d'automatisation sur la route sont encore peu fiables et impliqués dans plusieurs incidents, qu'il s'agisse de ce système Uber ou de l'Autopilot de Tesla, lui aussi à l'origine de plusieurs accidents.