Asociación Mutua Motera

      
 
 
Vehículos con conducción autónoma: ¿un peligro para los motoristas?
  14 de Septiembre de 2015
  Vehículos con conducción autónoma: ¿un peligro para los motoristas?

La conducción autónoma podría ser una quimera en la práctica, con problemas de difícil solución para su introducción a corto plazo. La limitada mente de un robot no puede entender todas las situaciones de tráfico como lo hace un humano, lo que conduce a que los vehículos con conducción autónoma entren en conflicto al interactuar con los impredecibles humanos.

El primer ejemplo lo pudimos comprobar con el coche de conducción autónoma de Google. Cuando el vehículo se acercó a un paso de peatones, hizo lo que el código de circulación manda, detenerse para dejar cruzar al peatón. El problema es que la velocidad era algo elevada y el frenazo fue muy brusco, por lo que el vehículo (conducido por un humano) que circulaba inmediatamente tras él, no se lo esperaba. ¿El resultado? El último accidente de un vehículo con conducción autónoma.

A pesar de no ser el primero que se produce, ese accidente resume a la perfección la esencia de los accidentes de tráfico que pueden provocar este tipo de vehículos. Allá donde un humano reaccionaría de forma diferente a lo que estrictamente menciona la ley del código de circulación, los vehículos robotizados causan estragos. De hecho, un humano que quisiera dejar pasar al peatón como hizo el vehículo de Google, habría frenado de forma más progresiva y habría aprovechado los escasos metros a los que se quedó del paso de peatones para evitar ser alcanzado por detrás.

La flota de vehículos autónomos de Google están programados para seguir el código de circulación al pie de la letra (la responsabilidad legal manda). Otra de las unidades de Google quedo paralizada en una intersección cunado estuvo esperando sin éxito que otros conductores se detuvieran por completo para dejarlo pasar. En los cruces los humanos suelen mover lentamente el automóvil para indicar la intención de girar a otros y ponerlos alerta, pero también para conseguir pasar antes que el otro. Esta actitud humana impidió al robot girar y dejó un gran atasco tras él.

Pero el problema no es solo de Google, todos los vehículos con sistemas de conducción autónoma tienen que enfrentarse a enormes retos al cohabitar en la vía con la conducción humana. Los seres humanos no se comportan según las reglas, solo las utilizan como guía de comportamiento y para las cuestiones legales (tras los accidentes). “El verdadero problema es que el coche es demasiado seguro”, comentó Donald Norman, director del Laboratorio de Diseño de la Universidad de California en San Diego, encargado de estudiar los vehículos autónomos.

Los vehículos autónomos “tienen que aprender a ser agresivos en la cantidad correcta, y la cantidad correcta depende de cada cultura”. En un mundo en el que todos los vehículos fueran robotizados el número de muertes en carretera descendería en picado, pero en el mundo real la interacción con la conducción de los “impredecibles humanos” supone un riesgo añadido.

Como  ejemplo se cita que el coche de Google deja siempre la distancia de seguridad al circular tras otros vehículos, pero dicha distancia es suficiente para que un conductor humano decida pasar de carril y situarse justo frente al vehículo autónomo, lo que le obliga a frenar y reducir su velocidad de forma “demasiado frecuente”.

En otra ocasión el vehículo autónomo se acercaba a un semáforo en rojo y detectó con su medidor de velocidad láser que el vehículo que circulaba por el otro carril circulaba a mayor velocidad de la debida al acercarse al semáforo, por lo que el vehículo de Google se giró inmediatamente hacia la derecha para impedir que  sus ocupantes pudieran sufrir un accidente. La “mente” de un robot no entiende la agresividad humana a la hora de acercarse a un semáforo en rojo, y su maniobra podría haber provocado un accidente con un motorista o un ciclista que circularan en ese momento por el espacio que queda a su derecha.

A estos riesgos hay que añadir el creciente problema de los hackers que toman el control de los vehículos para fines ilícitos, o el de los vehículos  “colgados” en mitad de la vía,  son sus sistemas caídos sin motivo aparente.

En cualquier caso los choches de Google están “aprendiendo” a realizar rápidas maniobras evasivas, o a realizar una conducción defensiva en sintonía con las condiciones de la carretera. Solo así conseguirán superar el desafío. Desde 2009, los coches de Google han estado presentes en 16 accidentes, la mayoría de poca importancia, y en todos los casos, fueron los humanos los que tuvieron la culpa. Aunque la compañía cita un caso del 2011 en el que el vehículo de Google fue el que golpeó al otro vehículo. Pero, sorprendentemente, el coche de Google estaba en ese momento siendo probado por un investigador, por lo que en la práctica, la culpa fue de un humano.

Fuente