Conducción autónoma y sus dilemas

La Conducción autónoma es algo que piden muchos conductores y se busca que logre minimizar los errores humanos y reducir los accidentes de tránsito. No es una tarea fácil, la automatización también es susceptible de errores y los países y las empresas automotrices trabajan por resolver  los dilemas éticos, conflictos de tipo legal y tecnológico que surgen con  la aplicación de esta nueva tecnología.

Se abrió nuevamente el debate tras los accidentes protagonizados por los vehículos autónomos de Tesla. Además de guiar el carro a un destino predeterminado por el pasajero, los dispositivos tienen la tarea de reconocer las señales de tránsito, los pasos peatonales y los peatones, detener completamente el auto antes de que se puede llegar a generar un accidente y realizar maniobras en espacios reducidos como calles donde hay autos parqueados a los costados de la vía y la operación de parqueo.

Todo esto abre el debate si la tecnología aún no está lista o si hace falta de unos años más para perfeccionarla. Si al igual que los sentidos de los seres humanos que se afectan con las condiciones adversas los sensores y actuadores fallan bajo condiciones inadecuadas.

¿A quién atropello?

Si vamos más allá de lo tecnológico, de los instrumentos sensibles, la respuesta de los procesadores, la programación de los algoritmos, aparecen dilemas más complejos en lo legal y lo ético.

En países del primer mundo los organismos legislativos siguen discutiendo el tema de permitir a los conductores retirar las manos del volante. A juzgar por los avances logrados en la Conducción autónoma aún es  un tema evaluado desde todas las esferas.

Otro punto por definir es la programación del algoritmo que decide un delicado y sensible asunto. Los programadores de estas instrucciones por medio de las cuales los sistemas de Conducción autónoma actúan, surge el dilema moral de tomar la decisión frente a varias situaciones de conflicto moral.

Situaciones inesperadas que ponen a prueba la programación del automóvil, casos eventuales como si se atraviesa un peatón, un niño, un adulto mayor o una mujer embarazada y si no se tiene ni el tiempo ni el espacio para frenar o eludirlos, ¿por cuál de ellos debe el optar el algoritmo? Todo un dilema porque es una decisión  que sale de la sala de programación para que los computadores actúen.

En lo que si hay un consenso es sobre el responsable de lo que suceda, pues en ningún caso se solidariza en la responsabilidad al fabricante del carro ni al proveedor de la tecnología. Quien vaya a bordo o quien tenga el mando a distancia (el telecomando será protagonista) es el responsable de lo que pueda suceder.

El carro autónomo será más seguro que cualquier conductor humano

Esta es la tesis bajo la cual se argumenta la necesidad de los carros autónomos, el carro no se cansa, no tiene estrés, no bebe alcohol, no discute, no se altera, en resumidas cuentas no comete errores.  Además puede procesar decisiones en milésimas de segundo, mucho más rápido que el ser humano.

Las leyes de la robótica

Las tres leyes de la robótica de Isaac Asimov son un caso claro de ficción (la vimos en YoRobot), pero desde un punto de vista moral son muy interesantes. Significa que, pase lo que pase, un robot jamás dañará a un humano por acción o por omisión. En algunos casos esa lógica puede llevar a caminos sin salida (siempre hablando desde la ciencia ficción). Si no las conocen, estas son:

  • Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  • Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
  • Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

Surge la duda ¿Qué pasa si el auto se encuentra con una situación en la que hay que decidir desde el punto de vista moral?

Un cerebro robótico que razone con unos límites morales (reglas de comportamiento) probablemente no permita circular a velocidad excesiva, puesto que incrementa varias veces las probabilidades de encontrarse con un imprevisto o una situación delicada.

Si partimos de la base de que el vehículo autónomo será una herramienta valiosa para la movilidad futura, podremos pensar que no es necesario dejar sobre su responsabilidad las decisiones morales. No infringirán las normas y los límites de velocidad, no sobrepasarán límites de riesgo potencial bajo ningún concepto (porque rebasarlos infringiría probablemente una de las leyes de la robótica, si se aplicaran), y posiblemente sería muy raro que tuviesen que tomar una decisión entre salvar al conductor o la anciana que cruza la calle.

 

Entradas relacionadas

Comentar