¿Automoción?
2015/12/01 Leturia Azkarate, Igor - Informatikaria eta ikertzaileaElhuyar Hizkuntza eta Teknologia Iturria: Elhuyar aldizkaria
En la actualidad, es habitual que los coches tengan cada vez más componentes electrónicos, sensores y software y puedan realizar diferentes tareas: aparcar solo, frenar de emergencia, aviso de aproximación al borde de la vía… La carrera para conseguir vehículos totalmente autónomos la puso en marcha Google en 2012 cuando anunció que estaba en ello. Desde entonces casi todos los productores se han unido a la carrera y en algún año de la próxima década todos esperan poner en la calle vehículos autónomos. Antes, sin embargo, implementarán funciones concretas avanzadas como la conducción autónoma en autopistas. En octubre, Tesla actualizó el software de su modelo S para convertirlo en el primer coche con nivel de autonomía 2 (el nivel 0 es el coche que necesita en todo momento el conductor y el nivel 4 funciona totalmente, en el nivel 2 pueden funcionar al menos dos controles simultáneamente).
Está claro que la cuestión de los vehículos autónomos va muy rápido y no se puede parar. Pero es posible que también vaya demasiado rápido, ya que esto va a suponer muchos cambios en muchos niveles (prácticos, morales, legales...) y quizás no todos buenos. No sé si hemos reflexionado bastante al respecto y si estamos preparados para esos cambios.
Múltiples a tener en cuenta
Para empezar, los coches necesitan sistemas complejos para ser autónomos: sensores, sistemas de comunicación, software… Esto, por un lado, encarece mucho los automóviles y sus reparaciones, pero por otro lado, los automóviles dependen cada vez de más cosas para poder funcionar. ¿Es práctico que no se pueda usar el coche sólo por el fallo de uno de estos componentes? La verdad es que siempre será posible o no la vieja forma de conducir a mano, puede que llegue el día en el que se quite esa opción, o puede llegar el día en el que no sepamos conducir a mano.
Por otro lado, existe una cuestión de calidad del sistema de conducción autónomo. ¿Cómo saber si un sistema es bueno o malo o si lo hace correctamente? Comprar un coche con mala conducción no es como comprar un mal lavavajillas, porque nuestra seguridad y la de los tuyos están en juego. Y aunque sabemos que un sistema es mejor o peor, seguramente tendrán un coste diferente. ¿Cómo valorar, por tanto, si esta calidad del sistema de conducción compensa la diferencia de costes?
Además, seguro que habrá alguien que no se fíe de los sistemas de conducción y que nunca quiera conducir un vehículo autónomo. Yo personalmente pienso que los coches autónomos serán mucho más seguros que muchos seres humanos que circulan por las carreteras. Así, si se demuestra que este tipo de coches son más seguros y cumplen siempre las normas de tráfico, ¿es obligatorio que todos los coches sean autónomos?
Seguridad (informática)
A medida que estos coches se controlan por software y se suministran con sistemas de comunicación, tiene los mismos problemas de seguridad que todo ordenador. En julio, dos hackers demostraron que eran capaces de tomar el control completo de un coche con facilidad. Enseguida solucionaron este problema de seguridad, pero siempre aparecerán noticias como aparecen en los ordenadores. Además, dicen que la forma de optimizar el funcionamiento de los vehículos autónomos sería implementar sistemas de comunicación entre coches. La detección de estas comunicaciones permite realizar un seguimiento de la trayectoria de un coche. Y como con los ordenadores o teléfonos, ahí estarán los virus, la infección de los coches entre ellos o con los ordenadores de los talleres…
Pero quizá los más peligrosos no son enemigos externos sino internos. ¿Cómo saber que el software del coche hace lo que el fabricante dice? Ahí está el tema de Volkswagen. O no sería de extrañar que los productores pusieran “puertas traseras” en el software para agencias de seguridad, gobiernos o policías, con el fin de hacer un seguimiento de nuestros coches o tomar su control.
Teniendo en cuenta que el software de los coches puede tener problemas de seguridad de forma intencionada o no, lo lógico sería que el software también fuera inspeccionado o que, al igual que los componentes mecánicos, el software también tuviera que someterse a una revisión técnica, ¿no? Sin embargo, el software de los coches, al igual que cualquier otro software con copyright, está protegido por la ley de derechos de autor y nadie puede obligar al productor a que autorice su revisión. Por ello, algunos están pidiendo que el software de los automóviles sea de código abierto.
Otra discusión es la libertad del usuario: como podemos instalar el sistema operativo o software que queremos en nuestro ordenador, ¿tenemos derecho a cambiar o tunear el software en nuestro coche? Por el momento, en EEUU sí, pero eso también puede cambiar.
También se discute de quién es el responsable de los accidentes cuando el vehículo viaja solo. O quién tiene que pagar los seguros, si el coche siempre va por su cuenta.
El dilema más difícil y a la vez más interesante es cómo programar estas máquinas para no causar daños a los seres humanos. Asimov lleva tiempo dando las tres leyes de la robótica: 1º Un robot no puede dañar a un ser humano, ni dejarlo o aceptarlo para que sufra daños; 2º, un robot está obligado a obedecer las órdenes de los seres humanos, siempre que no contravenga la primera ley; 3º, un robot debe protegerse a sí mismo, siempre y cuando éste no incumpla las leyes primera y segunda. Pero las cosas no son tan sencillas. Estas leyes tienen algunos problemas que se ven en el dilema del tranvía: en el ferrocarril de un tranvía hay cinco personas y el tranvía no puede frenar. Lo único que se puede hacer es pulsar el botón cambiar de hierro. Desgraciadamente hay otra persona en el ferrocarril. En este caso, tanto por acción como por acción se perjudicará a las personas presentes, por lo que es imposible cumplir la primera ley de Asimov. Este tipo de casos pueden darse en el uso diario, y ¿qué debe hacer entonces el software del coche? ¿No hacer nada y matar a los que en principio morirían, o hacer una acción y a los que en un principio se salvarían? ¿Salvar el mayor número de personas posible? ¿Tiene que tener en cuenta la edad? ¿Cómo puede asegurar la edad o el número de estas personas? Y en el caso de los vehículos autónomos, ¿hay que salvar al mayor número de personas o priorizar los vehículos internos, o los externos, o los que no tienen culpa en el accidente? Por otro lado, ¿quién tiene culpa en el accidente si hay dos vehículos autónomos?
Como se ve, los vehículos autónomos todavía plantean muchas dudas, pero hay tiempo para ir tomando decisiones. En cualquier caso, habrá que prestar atención al tema para que en una cuestión tan importante como esta, las decisiones no sean tomadas únicamente por empresas y gobiernos y, como es costumbre, la sociedad salga perjudicada.
Gai honi buruzko eduki gehiago
Elhuyarrek garatutako teknologia