}

Automobile ?

2015/12/01 Leturia Azkarate, Igor - Informatikaria eta ikertzaileaElhuyar Hizkuntza eta Teknologia Iturria: Elhuyar aldizkaria

Les voitures ne fonctionnent pas par eux-mêmes, contrairement à ce que leur nom indique. Ils ont été appelés ainsi parce qu'ils ne devaient pas jeter un cheval ou un âne en ce qui concerne la force motrice, mais un homme doit conduire. Cependant, les véhicules vraiment autonomes sont une porte d'entrée: plusieurs fabricants ont montré que la technologie est suffisamment avancée pour que les voitures puissent fonctionner par eux-mêmes bientôt. Mais comme dans tous les changements qui se produisent très rapidement, il n'a peut-être pas été suffisamment pris en compte les implications pratiques et philosophiques qu'il peut avoir.
Ed. © Dollarphotoclub/Martialred

Aujourd'hui, il est courant que les voitures aient de plus en plus de composants électroniques, de capteurs et de logiciels et qu'elles puissent effectuer différentes tâches : garer seul, freiner d'urgence, préavis d'approche au bord de la route… La course pour obtenir des véhicules totalement autonomes a été lancée par Google en 2012 quand il a annoncé qu'elle était là. Depuis lors, presque tous les producteurs ont rejoint la course et dans un an de la prochaine décennie, tous espèrent mettre dans la rue des véhicules autonomes. Avant, cependant, ils implémenteront des fonctions spécifiques avancées comme la conduite autonome sur les autoroutes. En octobre, Tesla a mis à jour le logiciel de son modèle S pour en faire la première voiture avec un niveau d'autonomie 2 (le niveau 0 est la voiture dont le conducteur a besoin à tout moment et le niveau 4 fonctionne totalement, au niveau 2 peuvent fonctionner au moins deux contrôles simultanément).

Il est clair que la question des véhicules autonomes va très vite et ne peut pas s'arrêter. Mais il est possible qu'il aille trop vite, car cela va supposer de nombreux changements à de nombreux niveaux (pratiques, moraux, légaux...) et peut-être pas tous bons. Je ne sais pas si nous avons réfléchi assez à ce sujet et si nous sommes prêts pour ces changements.

Multiples à garder à l'esprit

Pour commencer, les voitures ont besoin de systèmes complexes pour être autonomes : capteurs, systèmes de communication, logiciels… Cela, d'une part, rend beaucoup plus cher les voitures et leurs réparations, mais d'autre part, les voitures dépendent de plus en plus de choses pour pouvoir fonctionner. Est-il pratique de ne pas utiliser la voiture uniquement en raison de l'échec de l'un de ces composants? La vérité est que la vieille façon de conduire à la main sera toujours possible ou non, peut arriver le jour où cette option est supprimée, ou peut arriver le jour où nous ne savons pas conduire à la main.

D'autre part, il existe une question de qualité du système de conduite autonome. Comment savoir si un système est bon ou mauvais ou s'il le fait correctement? Acheter une voiture avec mauvaise conduite n'est pas comme acheter un mauvais lave-vaisselle, parce que notre sécurité et celle des vôtres sont en jeu. Et même si nous savons qu'un système est meilleur ou pire, ils auront sûrement un coût différent. Comment évaluer, donc, si cette qualité du système de conduite compense la différence de coûts?

De plus, il y aura quelqu'un qui ne se fie pas aux systèmes de conduite et qui ne veut jamais conduire un véhicule autonome. Personnellement, je pense que les voitures autonomes seront beaucoup plus sûrs que de nombreux humains qui circulent sur les routes. Ainsi, s'il est démontré que ce type de voiture est plus sûr et conforme toujours aux règles de circulation, est-il obligatoire que toutes les voitures soient autonomes?

Sécurité (informatique)

Comme ces voitures sont contrôlées par logiciel et livrés avec des systèmes de communication, vous avez les mêmes problèmes de sécurité que tout ordinateur. En Juillet, deux pirates ont montré qu'ils étaient en mesure de prendre le contrôle complet d'une voiture facilement. Tout de suite, ils ont résolu ce problème de sécurité, mais des nouvelles apparaissent toujours comme sur les ordinateurs. En outre, ils disent que la façon d'optimiser le fonctionnement des véhicules autonomes serait de mettre en œuvre des systèmes de communication entre voitures. La détection de ces communications permet de suivre la trajectoire d'une voiture. Et comme avec les ordinateurs ou les téléphones, il y aura les virus, l'infection des voitures entre eux ou avec les ordinateurs des ateliers…

Mais peut-être les plus dangereux ne sont pas des ennemis externes mais internes. Comment savoir que le logiciel de voiture fait ce que le fabricant indique ? Voici le thème de Volkswagen. Ou il ne serait pas surprenant que les producteurs mettent “portes dérobées” dans le logiciel pour les agences de sécurité, les gouvernements ou la police, afin de suivre nos voitures ou de prendre leur contrôle.

Étant donné que le logiciel automobile peut avoir des problèmes de sécurité intentionnellement ou non, il serait logique que le logiciel soit également inspecté ou que, comme les composants mécaniques, le logiciel doive également subir une révision technique, non ? Cependant, le logiciel automobile, comme tout autre logiciel sous copyright, est protégé par la loi sur le droit d'auteur et personne ne peut forcer le producteur à autoriser sa révision. Par conséquent, certains demandent que le logiciel automobile soit open source.

Une autre discussion est la liberté de l'utilisateur: comme nous pouvons installer le système d'exploitation ou le logiciel que nous voulons sur notre ordinateur, avons-nous le droit de modifier ou de tuner le logiciel dans notre voiture? Pour le moment, aux États-Unis oui, mais cela peut aussi changer.

Il est également question de savoir qui est responsable des accidents lorsque le véhicule voyage seul. Ou qui doit payer les assurances, si la voiture va toujours sur votre propre.

Le dilemme le plus difficile et le plus intéressant est de savoir comment programmer ces machines pour ne pas causer de dommages aux humains. Asimov donne depuis longtemps les trois lois de la robotique: 1º Un robot ne peut pas nuire à un être humain, ni le laisser ou l'accepter pour qu'il subisse des dommages; 2º, un robot est obligé d'obéir aux ordres des êtres humains, pourvu qu'il ne contracte pas la première loi; 3º, un robot doit se protéger, pourvu qu'il ne respecte pas les lois première et deuxième. Mais les choses ne sont pas si simples. Ces lois ont quelques problèmes que l'on voit dans le dilemme du tramway: sur le chemin de fer d'un tramway il ya cinq personnes et le tramway ne peut pas freiner. La seule chose que vous pouvez faire est d'appuyer sur le bouton changer de fer. Malheureusement, il y a une autre personne dans le chemin de fer. Dans ce cas, à la fois par action et par action, les personnes présentes seront lésées, il est donc impossible de respecter la première loi d'Asimov. Ce type de cas peut se produire dans l'utilisation quotidienne, et que devrait faire alors le logiciel de voiture ? Ne rien faire et tuer ceux qui mourraient en principe, ou faire une action et ceux qui seraient au commencement sauvés ? Sauver le plus grand nombre de personnes possible? Faut-il tenir compte de l'âge? Comment pouvez-vous assurer l'âge ou le nombre de ces personnes? Et dans le cas des véhicules autonomes, faut-il sauver le plus grand nombre de personnes ou hiérarchiser les véhicules internes, ou externes, ou ceux qui n'ont pas de faute dans l'accident ? D'autre part, qui est responsable de l'accident s'il y a deux véhicules autonomes?

Comme on le voit, les véhicules autonomes posent encore beaucoup de doutes, mais il y a du temps pour prendre des décisions. Dans tous les cas, il faudra prêter attention à la question afin que, dans une question aussi importante que celle-ci, les décisions ne soient pas prises uniquement par les entreprises et les gouvernements et, comme d'habitude, la société soit lésée.

Gai honi buruzko eduki gehiago

Elhuyarrek garatutako teknologia