Se fier à l’humain ou à la machine?

La vision de Google, très différente de celle de Tesla, a éliminé le volant et les pédales. Et vous, laisseriez-vous monter vos enfants dans une voiture sans possibilité de contrôle pour l’humain?

AP Photo/Tony Avelar
AP Photo/Tony Avelar

La mort du conducteur d’une Tesla sur la fonction « autopilote » alimente déjà les craintes sur la dangerosité des voitures autonomes. Après tout, il s’agit du premier accident mortel impliquant une voiture dirigée par un système du genre.

Le conducteur était apparemment en train de regarder un film de la série Harry Potter, selon un témoin de l’accident. Les caméras du système « autopilote » n’auraient pas fait la distinction entre le camion-remorque blanc qui s’engageait dans la voie et le ciel clair. Sinon, le logiciel aurait appliqué les freins sur la voiture.

Troublant, à première vue. Mais comme pour la saga des pitbulls, il est parfois nécessaire de prendre un peu de recul avant de crier au loup.

Réglons d’abord une chose. Même le jour où tous les systèmes de conduites seront automatisés, il y aura des accidents. Et il y aura des morts. L’automatisation des systèmes de métro dans le monde n’a pas mis un terme aux collisions, même si elles sont moins fréquentes.


À lire aussi:

À quand la sieste derrière le volant?


La théorie, c’est que la machine fait moins d’erreurs que l’humain, parce qu’elle agit de façon rationnelle plutôt qu’émotive. Tesla a d’ailleurs brandi cet argument lundi, en indiquant que ce premier accident mortel survenait après 200 millions de kilomètres parcourus en « autopilote ».

« À titre de comparaison, un accident survient à tous les 95 millions de kilomètres pour l’ensemble des véhicules du monde », a précisé la compagnie. De là à prévoir une réduction des accidents de moitié, il n’y a qu’un pas que Tesla n’ose pas franchir. Mais elle réitère que la fonction « autopilote » est là pour assister le conducteur, et non le remplacer complètement.

Voici donc une question aux implications aussi financières que philosophiques : doit-on donner le contrôle à l’humain avant la machine? L’émission Planet Money, à la radio NPR, se penchait sur ce débat l’an dernier, de manière très imagée.

Il y a d’abord l’exemple de l’ascenseur. Lorsqu’il y a défaillance du système, il n’y a qu’une issue possible : le bouton arrêt. Des employés viendront ensuite de l’extérieur pour vous sortir de là. Aucun passager ne peut, en revanche, faire fonctionner manuellement l’ascenseur.

Puis il y a l’avion, presque entièrement contrôlé par un ordinateur. Sauf qu’ici, les pilotes peuvent décider de prendre le relais des commandes automatiques.

C’est ce qui est arrivé lors du vol 447 d’Air France, en 2009, entre Rio et Paris. Les sondes servant à mesurer la vitesse ayant gelé, l’appareil a signalé une erreur. Il a déconnecté le pilote automatique, mais il a poursuivi en ligne droite.

Sauf que les pilotes, paniqués, ont décidé de reprendre les commandes. Et malgré leur formation de pointe et leur expérience, ils ont réagi exactement comme il ne fallait pas, en faisant grimper l’appareil tout en abaissant sa vitesse.

L’Airbus A330 a décroché, avant de s’écraser dans l’océan Atlantique, tuant les 228 personnes à bord. S’ils avaient laissé l’appareil poursuivre sa route, la tragédie n’aurait probablement jamais eu lieu.

On pourrait opposer à la supériorité de la machine que le pilote Chesley Sullenberger, dont le film biographique Sully sortira en septembre (la bande-annonce ici), a suivi ses instincts en faisait amerrir son Airbus 320 sur le fleuve Hudson, en 2009. La manoeuvre a sauvé la vie de ses 155 passagers, tandis que les simulations par ordinateur excluaient d’emblée ce scénario.

De là, le dilemme des ingénieurs des voitures autonomes: donner seulement la possibilité de stopper la machine ou celle d’en prendre le contrôle.

Quand elle a mené des tests en confiant des véhicules automatisés à certains de ses employés, Google a été stupéfait de voir, par les caméras placées à l’intérieur, que les passagers étaient tout sauf attentifs à la route. Certains ont branché leur ordinateur portable, d’autres se sont même endormis.

En cas d’urgence, difficile alors de revenir rapidement dans un état de vigilance. Comme l’explique le New York Times, c’est la raison pour laquelle le responsable du projet, Chris Urmson, a radicalement modifié son approche. La dernière version de son véhicule a éliminé le volant et les pédales. L’usager ne peut que stopper la voiture.

La vision de Google, très différente de celle de Tesla, privilégie désormais de petits véhicules qui ne dépassent pas les 40 km/h. Le projet s’apparente à davantage des taxis urbains automatisés pour se déplacer. Très peu de risques d’accidents, donc. Mais les passagers, eux, auront-ils assez confiance pour embarquer? Et vous, laisseriez-vous monter vos enfants dans une voiture sans possibilité de contrôle pour l’humain?

La question turlupine la vingtaine d’entreprises qui développent actuellement des voitures autonomes. Les assureurs y jettent aussi un œil hautement intéressé. Pour eux, quelle est la plus faible prise de risque? Le bouton arrêt? Le volant et les pédales?

Et ensuite, qui sera tenu responsable des accidents en mode autonome? Le constructeur? Le sous-traitant qui a conçu le logiciel et les algorithmes? Celui qui a conçu les capteurs routiers? Un véritable casse-tête, relate le quotidien français Le Monde, surtout en période de cohabitation entre voitures traditionnelles et hybrides.

Et le futur s’en vient vite.

Enregistrer

Enregistrer

Les commentaires sont fermés.

Moi je laisse le contrôle à la machine à 100%.
On fait de grands cas des accidents des voitures autonomes, mais que dire des milliers d’accidents de voiture « traditionnelles »?
Si la machine pends le contrôle, plus d’alcool au volant, plus de personnes âgées avec de cataractes, plus de stationnement en hasardeux (même plus de stationnement tout court puisqu’on pourra appeler la voiture de son téléphone comme on siffle la Mystery Machine de Scoobidoo), même la cohabitation voiture/vélo sera facilitée.
Bref, que du mieux!

(desole, clavier sans accent) Et l’accident qui s’est produit pourrait facilement etre evite avec une reglementation qui interdirait les surfaces uniformes blanches ou bleues.
Au moins l’essai erreur pourra permettre a TOUS les logiciels d’apprendre de leur erreurs (facon de parler), alors que chaque humain doit apprendre chaque lecon.