Extrait COSINUS

14 Prendre des décisions Comme les robots, les voitures autonomes sont programmées pour accomplir certaines tâches automatiques (ouvrir et fermer les portes, démarrer, suivre un parcours …) comme pour interagir avec les personnes et l’environnement. Elles peuvent par exemple éviter des obstacles ou réagir rapidement en cas de problèmes. On leur demande, en somme, de prendre des décisions, à l’aide d’algorithmes informatiques. Cependant, si les voitures autonomes possèdent un certain type d’intelligence, l’intelligence artificielle, elles sont dépourvues de morale ! Alors même qu’elles seront amenées à accomplir des choix moraux. Si, lors d’un accident, un véhicule autonome a le choix entre renverser quelqu’un et le tuer ou foncer contre un mur, en tuant ses passagers… quel choix doit-il faire ? Cela dépend-il du nombre de passagers ou de piétons en danger ? Si parmi les piétons se trouvent des enfants ou des personnes âgées, faut-il changer d’avis ? Demain, des véhicules sans conducteurs peupleront les routes, risquant d’être impliqués dans des accidents, malgré les progrès technologiques. Dans ces éventualités regrettables, comment programmer les logiciels qui contrôleront les voitures ? Sans humain pour les diriger, pourront-elles faire des choix moraux ? Un véhicule autonome est un moyen de transport qui n’a pas besoin de conducteur. Cela peut être une voiture, un bus ou tout autre type d’engin qui roule dans la rue. Les trains et les métros circulant sur des rails n’en font pas partie, et sont plutôt appelés véhicules automatisés. L’idée de créer une voiture autonome ne date pas d’aujourd’hui, on en parlait déjà dans les années 1950. Les progrès techniques ont rendu possible leur mise en circulation, mais d’autres obstacles restent encore à franchir. L a v o i t u r e a u t o n o m e Un grand cerveau mais pas de cœur © Metamorworks /Adobe Stock

RkJQdWJsaXNoZXIy MTEzNjkz