Cuenta con
Redman

Primer ministro de Luisiana
en Lesiones Personales en Nueva Orleans

mover
Solicite su consulta gratuita

¿Quién es responsable de un choque si un vehículo está en piloto automático?

Publicado en Accidentes de auto on 12 de mayo de 2022

Brendan McGowan se sentó en el asiento del conductor de un Tesla Model 3. Observó cómo giraba el volante mientras sus manos se cernían sobre él. El Tesla navega por las calles de Auburn, California, utilizando el software Full Self Driving (FSD) de Tesla.

Como piloto de pruebas beta de FSD, McGowan es poco más que un espectador detrás del volante. Tesla tiene como objetivo eliminar por completo la necesidad de un control del conductor. 

El Tesla se detiene sin problemas en una señal de alto antes de hacer un amplio arco de giro a la izquierda. La frente de McGowan se arruga con preocupación. Él susurra: "Oh, Dios mío".

Un pasajero grita, haciendo los sonidos apresurados del pánico. El Tesla se lanza directamente hacia un Ford estacionado.

McGowan agarra el volante, sacando el auto de la trayectoria de la colisión, esquivando al Ford por poco. Deja escapar un largo suspiro, llevando la palabra "¡Jesús!"

Todo el incidente fue grabado. Desde que comenzaron las pruebas en los autos controlados por FSD de Tesla en octubre de 2020, muchos de estos videos destacan la notable tecnología de los autos autónomos de Tesla. Otros videos han mostrado más llamadas cercanas como esta, y hay demasiados videos de cámaras de tablero que sirven como evidencia en el litigio de casos de accidentes automovilísticos.

¿Qué sucede si McGowan no pudo sacar el automóvil de su curso kamikaze y ocurrió la colisión? quien seria en falta? ¿McGowan tiene la culpa? ¿Debería responsabilizarse a Tesla? ¿Es posible demandar a los desarrolladores del software FSD? ¿Qué pasa con la empresa que fabricó y suministró los sensores y cámaras de navegación?

Así como esta tecnología evoluciona, corrige fallas y mejora, la cuestión de la responsabilidad se transforma y se expande en el camino. Esclarecer cómo se deciden estos casos y llegar a un consenso está ocurriendo en tiempo real en los EE. UU. a medida que los casos cada vez más relevantes se desarrollan en los tribunales. 

Definición de la amplitud del robot

La empresa matriz de Google, Alphabet, también se embarcó en su propio programa de vehículos autónomos con su subsidiaria. Waymo. En 2016, sus vehículos autónomos tomaron las calles del East Valley de Arizona.

Waymo recientemente reportaron que en 2019 y 2020, sus vehículos autónomos estuvieron involucrados en al menos 18 accidentes: colisiones con otros vehículos, ciclistas, peatones y otros objetos. Otros 29 accidentes fueron evitados por conductores de seguridad humana que se desconectaron y tomaron el control del vehículo.

Tanto Waymo como Tesla sostienen que el objetivo de estos programas es perfeccionar la tecnología de conducción autónoma hasta que se elimine el error humano, introduciendo un modo de viaje más seguro, conveniente y sin intervención. A partir de ahora, la tecnología no ha llegado de manera segura a este objetivo autonomía total.

Y aún así, el marketing que rodea a estos vehículos hace grandes afirmaciones. Tesla incluso nombró a su sistema de conducción autónoma como un sistema totalmente autónomo, una experiencia de no intervención. Otras compañías de automóviles promocionan modelos de vehículos con sistemas avanzados de asistencia al conductor (ADAS) similares. Ninguno de estos sistemas es verdaderamente autónomo.

En 2020, el Fundación AAA para la Seguridad del Tráfico publicó un estudio en el que se encuestó a los conductores que probaron un vehículo con funciones de asistencia al conductor. Los conductores se dividieron en dos grupos, ambos usaron el mismo ADAS, pero los sistemas se explicaron a los conductores de diversas maneras. Los investigadores se refirieron a uno de los sistemas como AutonoDrive y describieron cómo las características del sistema hicieron que el viaje fuera más conveniente para el conductor. El otro sistema se llamaba DriveAssist y su descripción incluía las limitaciones del sistema al tiempo que explicaba su mayor responsabilidad del conductor.   

Más del 40% de los conductores de AutonoDrive encuestados sobrevaloraron las funciones del sistema. Solo el 11% de los conductores de prueba de DriveAssist ponen énfasis en las capacidades de AutonoDrive. Todos estos conductores informaron que mientras usaban el ADAS, tenían una fuerte necesidad de "participar en comportamientos potencialmente peligrosos o que los distrajeran". 

También mostraron más confianza en que el sistema podría prevenir una colisión, incluso cuando no se proporcionó evidencia que indicara que el sistema podría prevenir una colisión y no pudo evitar un choque.

Actualmente, los automóviles autónomos solo ayudan al conductor en varios elementos de conducción, y los conductores son responsables por no prestar atención a la vía oa su entorno en los casos en que ocurrieron heridos y muertos.

Los tribunales deben aplicar las leyes existentes a la tecnología moderna caso por caso, mientras examinan los hechos y los detalles específicos del caso. A medida que la tecnología continúa mejorando hasta el punto de ser verdaderamente autónomo, las mareas pueden cambiar en términos de responsabilidad, fluyendo hacia los diseñadores de software y las compañías automotrices.

Humano vs. Robot: Determinación de la responsabilidad 

Más vehículos autónomos conducirán inevitablemente a más accidentes. A medida que los robots tomen más control de los vehículos, los tribunales deberán cambiar la forma en que se litigan los casos de responsabilidad. Estos casos pueden quedar sujetos a responsabilidad indirecta: un término legal que se usa en algunas circunstancias para encontrar a las empresas responsables de las acciones de sus empleados y la calidad de los productos que proporcionan.

Los fabricantes de vehículos podrían ser considerados responsables si el hardware o el software de un automóvil falla y provoca un accidente. Incluso en los casos en que los conductores humanos cometan un error o tengan un error de juicio, el rendimiento del sistema de conducción autónoma se evaluaría en busca de defectos.

La evaluación del sistema generalmente consideraría tanto su acción y reacciones en circunstancias específicas como el desempeño general del sistema. Los sistemas específicos también se compararían con otros ADAS, para juzgar el rendimiento y establecer un estándar de seguridad.

Los casos de responsabilidad subsidiaria también podrían conducir a la evaluación de vehículos autónomos al determinar si los sistemas más nuevos funcionaron mejor que los anteriores que tenían problemas de seguridad. Los robots no aprenden del error humano, pero los robots aprenden de otros robots. 

Cuando falla un sistema, los datos recopilados de esas fallas se pueden obtener de miles de automóviles que han registrado miles de situaciones distintas para aprender. Esto presenta a los desarrolladores y compañías automotrices previsibilidad: la capacidad de predecir riesgos debido a situaciones y resultados anteriores.

If empresas de tecnología tienen la intención de hacer que los conductores de robots sean más seguros que los conductores humanos, los robots deberían poder aprender de sus errores y no permitir que cometan el mismo error después de haber tenido tiempo de corregirlo.

Los tribunales podrían tardar años en crear un consenso sobre los casos que involucran vehículos autónomos, pero un consenso establecería cómo estos casos son manejados por los tribunales, la industria automotriz, los gobiernos locales, las fuerzas del orden público y las aseguradoras. claridad en determinación de responsabilidad porque estos nuevos problemas mundiales permiten que las reclamaciones se resuelvan sin años de confusión legal.