En la noche del pasado domingo, Elaine Herzberg, de 49 años, se disponía a cruzar la calzada en una calle de Tempe (Arizona). Antes de lograrlo, fue embestida por un coche que acabó con su vida. Podría ser un atropello mortal más, pero no: es el primero protagonizado por un coche autónomo. No había nadie al volante -salvo una persona que se limitaba a vigilar el comportamiento del vehículo- en el coche de Uber, que en los últimos años se ha lanzado a una carrera con Google por el liderazgo en el inminente mercado de los coches sin conductor. Tras el accidente, la empresa de transporte privado ha cancelado su programa de pruebas en Tempe, Pittsburgh, Toronto y San Francisco; pero no ha podido evitar que se reavive un debate recurrente: el del dilema ético y legal que suponen los coches autónomos. En Pluslegal Abogados repasamos sus principales implicaciones.
¿Quién paga las multas? ¿Quién asume la responsabilidad de un atropello?
Los coches autónomos han llegado antes que las normas que los regulen. Este vacío legal, que corresponderá subsanar a cada país cuando estos vehículos se consoliden y vayan llenando las carreteras, despierta varios interrogantes legales. El más obvio de ellos es el que atañe a las responsabilidad civil y penal. Si un coche autónomo comete una infracción, ¿quién paga la multa? Si atropella mortalmente a un viandante, ¿quién asume la pena que corresponda? Dado que un robot no es un sujeto de derecho, las opciones se reducen a dos: el propietario del vehículo o la compañía. Mientras las compañías de coches defienden que la póliza en caso de accidente debe ser del propietario, es esperable que los futuros (no) conductores exijan que, ya que no tienen control sobre el vehículo, sea el fabricante quien pague las multas o solicite la cobertura de daños a terceros obligatoria.
¿Salvar al pasajero o al peatón?
Los equipos que desarrollan los algoritmos que regirán a los coches autónomos se han visto obligados a incorporar a filósofos y expertos en ética y moral para enfrentarse a ciertas situaciones inevitables. La más popular se resume en lo siguiente: si un coche sin conductor pierde los frenos y debe decidir entre dar un volantazo a la derecha, matando a varios peatones, o estrellarse contra un muro, acabando con la vida del ocupante del vehículo, ¿qué debe hacer? En la web Moral Machine puedes afrontar varios escenarios similares y responder a lo que harías en cada caso.
En teoría, los algoritmos tienden a evitar los riesgos para terceros, ya que una de las premisas de los coches sin conductor es la reducción de accidentes. Pero esto, sin embargo, podría reducir mucho sus ventas potenciales, ya que pocas personas se sentirían seguras en un vehículo que no siempre anteponga su seguridad. Este es otro vacío legal que, llegado el momento, los parlamentos nacionales deberán afrontar con la elaboración de nueva normativa.
Ciberseguridad: impedir que el coche se convierta en un arma letal
La ciberseguridad de los coches autónomos es el tercer interrogante legal que preocupa a los expertos en automoción. Ya se han dado a conocer casos de hackers que han conseguido acceder al control remoto de un vehículo equipado con sistemas de conectividad, una posibilidad aún más peligrosa en el caso de los coches sin conductor. Los riesgos van desde el robo de contraseñas, la apertura y cierre remoto de puertas, la localización del coche y, en el peor de los casos, el control físico del coche. El FBI ya advirtió en un informe en 2014 que los nuevos prototipos podrían ser utilizados por terroristas como armas letales o para secuestrar a los ocupantes. Supuestos legales para lo que aún no existe una regulación específica, y a los que el Derecho deberá responder en el futuro.