¿Es su vehículo autónomo Sally el deportivo o Christine sedienta de sangre?

[ad_1]

Cuando los automóviles comenzaron a aparecer junto a buggies tirados por caballos, los caballos fueron las primeras víctimas de la tecnología. Los vehículos que se mueven lentamente no los golpearían, sino que los asustarían y se fugarían. A veces los caballos mismos sufrieron lesiones; otras veces fue daño a la propiedad y lesiones a peatones cuando los aterrorizados corceles pisotearon todo en sus caminos.

A medida que los autos se hicieron más rápidos y más numerosos, los peatones comenzaron a ser víctimas directas de los vehículos en movimiento, y no pasó mucho tiempo antes de que las reglas de tránsito y las leyes de responsabilidad civil por daños y productos impusieran una orden para evitar la masacre. Aún así, aún hoy tenemos un número cada vez mayor de conductores distraídos e ineptos que convierten nuestras carreteras atestadas en una versión distópica de Frogger de la vida real.

Entrar en el vehículo autónomo. Todos los beneficios de conducir, sin tener que conducir! Los defensores de los automóviles sin conductor creen que la tecnología autónoma hará que los automóviles sean más seguros y llevará a una reducción del 90% en la frecuencia de accidentes para 2050, ya que más del 90% de los accidentes automovilísticos son causados ​​por un error del conductor.

Ciertamente no hay escasez de noticias sobre lesiones y muertes causadas por conducir ebrio o distraído, y otros accidentes causados ​​por el comportamiento de los conductores. Envía mensajes de texto a tus amigos o ve el reloj de Black Mirror; Con un vehículo autónomo, está bien. ¿O es eso? Todo va bien hasta que su AV decide que el peatón que está frente a usted no está realmente allí, o confunde los escombros que se arrastran en un camión de basura para guiar el carril, y lo dirige hacia una barrera de concreto.

Algunas compañías están más cerca que otras de vehículos sin conductor, pero las situaciones de manejo de casos de vanguardia siguen siendo un desafío, como lamentablemente no hace mucho cuando un AV golpeó a un peatón que caminaba en bicicleta por una carretera oscura en Arizona. Aunque había un conductor presente que podría haber tomado los controles, ella no lo hizo. Difícilmente se puede culpar a su falta de atención, ya que todo el punto de la tecnología de conducción autónoma es permitir, si no alentar, a los conductores que se retiren de la tarea.

La "paradoja del vehículo autónomo" de inducir a los conductores a desconectarse porque no son necesarios la mayor parte del tiempo es confuso. Al menos en el ínterin, hasta que los sistemas autónomos puedan lograr de manera confiable más que una tasa de seguridad del 98% (aproximadamente la tasa de conductores humanos), los sistemas autónomos deberán complementarse con un conductor humano para emergencias y otras situaciones inesperadas.

¿Qué sucede y quién tiene la culpa cuando ocurre un accidente durante o incluso después de este período de transición? Antes de la llegada de la tecnología de vehículos autónomos, los accidentes automovilísticos normalmente invocaban una de dos teorías legales: negligencia del conductor y responsabilidad de los fabricantes con respecto a los productos. La teoría legal de la negligencia busca responsabilizar a las personas por sus acciones y conduce a una compensación financiera de los conductores, o más comúnmente de sus compañías de seguros, por la conducta de los conductores al volante. Por otro lado, las teorías legales sobre responsabilidad de los productos están dirigidas a empresas que fabrican y venden productos que causan lesiones, como bolsas de aire defectuosas, interruptores de encendido, neumáticos o los propios vehículos. La aplicación de las teorías legales actuales a las situaciones de accidentes de vehículos autónomos presenta muchos desafíos.

Supongamos que la inteligencia artificial (IA), o lo que hace que un automóvil sea autónomo, no puede detectar o corregir una curva resbaladiza. Tal vez una fuga de refrigerante de algún automóvil que se encuentra adelante cubra el camino con anticongelante, que puede ser visto por el humano detrás del volante, pero que es prácticamente invisible para el sistema de inteligencia artificial. Si el AV tiene controles de anulación manual y ocurre un accidente, ¿el conductor tiene la culpa de no haber tomado los controles para evitar el choque? ¿Es el fabricante del automóvil culpable por no detectar la condición de la carretera o corregirla? Si ambos, ¿cómo se debe repartir la culpa?

Si un vehículo convencional estuvo involucrado, el caso contra el conductor puede depender de la prueba de que su comportamiento cayó por debajo de un estándar de atención aplicable. El hecho de no tener las manos en el volante sería probablemente considerado un comportamiento negligente con un automóvil de este tipo, y probablemente se distraiga con los mensajes de texto en un teléfono inteligente. Pero la característica de auto conducción de un vehículo autónomo por su propia naturaleza fomenta la falta de atención del conductor y la falta de compromiso con los controles. Entonces, ¿estaríamos dispuestos a encontrar al conductor culpable en la instancia anterior por no asumir el control?

Los fabricantes de automóviles han expresado diferentes puntos de vista sobre la responsabilidad.

En cuanto al fabricante de un vehículo convencional, la responsabilidad podría depender de si un sistema o parte estaba defectuoso. Un vehículo convencional en buen estado, sin defectos de suspensión, freno o dirección, probablemente permitiría al fabricante escapar de la carga de responsabilidad en el escenario anterior. Sin embargo, el fabricante de un vehículo autónomo con controles de anulación humana podría intentar trasladar al conductor al menos una parte de la culpa, pero ¿la sociedad lo permitiría o debería hacerlo? El conductor podría argumentar que él o ella confiaban razonablemente en el AV, pero, en su lugar, ¿debería el fabricante responsabilizarse cuando el peligro era visible y la intervención del conductor podría haber evitado el accidente?

El resultado podría diferir si el vehículo fuera completamente autónomo y ningún humano pudiera haber intervenido, pero ese vehículo puede estar a años de distancia.

Cuando un AV de este tipo llega al mercado, ¿debería o debería considerarse "defectuoso" si no detecta o corrige la superficie inesperadamente resbaladiza? Y si es así, ¿se consideraría defectuoso simplemente porque ocurrieron las fallas, o la prueba también requeriría alguna demostración de errores en el software de AI? Dado que los algoritmos de AI pueden evolucionar por sí solos y depender de millones de millas u horas de datos de entrenamiento, ¿cómo se podría demostrar un "defecto" en el software? ¿Sería justo responsabilizar al programador o al proveedor de software si el algoritmo en el momento del accidente difería sustancialmente del original, y los cambios se realizaron por el algoritmo AI que se “enseñó” a sí mismo?

Otro problema es la "mente enjambre". Una forma en la que la IA podría aprender es mediante el procesamiento de las experiencias colectivas de otros AV conectados, un proceso que Tesla utilizó al mismo tiempo. Pero si una proporción significativa de otros AV cargan datos erróneos sobre los que se actúa, ¿entonces qué?

A la luz de estos problemas, y a medida que la tecnología avanza hacia el control completo del vehículo con una intervención cada vez menos humana, podemos ver que la ley evoluciona para poner más énfasis en las teorías de responsabilidad de los productos y quizás en la responsabilidad estricta en lugar de la negligencia. No es exagerado que la etiqueta de precio de un AV del futuro no solo incluya la I + D y los costos de los componentes, sino un componente de "seguro" para cubrir los costos de los accidentes. Dicha evolución sería coherente con el papel decreciente del conductor humano, aunque es algo inconsistente con la capacidad del fabricante de automóviles para ejercer un control total sobre el proceso de aprendizaje de un sistema de inteligencia artificial, sin mencionar el entorno de conducción.

En el presente período intermedio, cuando se requiere al menos alguna intervención humana, los fabricantes de automóviles han expresado diferentes puntos de vista sobre la responsabilidad. Algunos, como Volvo, han declarado públicamente que aceptarán la responsabilidad total cada vez que uno de sus vehículos se vea involucrado en un accidente mientras se encuentra en modo autónomo. Pero otros, como Tesla, están intentando cambiar la responsabilidad de los conductores cuando ocurren accidentes al requerir un poco de participación del conductor, incluso en modo autónomo.

Por ejemplo, para activar la capacidad de pasar a otros autos en modo autónomo, los conductores de Teslas tuvieron que activar la señal de giro (Tesla anunció recientemente una nueva versión que prescindiría de este requisito). Hacer que los conductores realicen esta acción aparentemente insignificante pero deliberada podría ayudar a los fabricantes de automóviles a cambiar la responsabilidad legal hacia el conductor. Realizar esa simple acción no solo le dice al auto que pase, sino que sugiere que el conductor ha tomado la decisión de que la maniobra es segura y, por lo tanto, está dispuesta a, o debería, aceptar la responsabilidad de las consecuencias si no lo es.

¿Qué pasa con la ética de la programación o entrenamiento de la IA?

La tecnología subyacente en sí presenta complicaciones adicionales para determinar quién tiene la culpa. Como se mencionó anteriormente, un aspecto de la IA, mejor caracterizado como "aprendizaje automático", es que su comportamiento es más o menos una "caja negra" desarrollada a partir de millones de una variedad de entradas y no puede entenderse bien como podría ser una prueba estrictamente matemática. algoritmo basado en

Dicho de otra manera, podríamos ser incapaces de saber exactamente cómo la máquina decidió actuar como lo hizo. En tal caso, si el cuadro de AI se entrenó de forma negligente, o se “entrenó” en un simulador en lugar de basarse en la conducción en el mundo real, el autor del simulador podría ser responsable del fracaso de la caja para manejar el escenario de caso límite que resultó en el accidente?

¿Qué pasa con la ética de la programación o entrenamiento de la IA? Un estudio reciente encontró que los sistemas de IA actuales son quizás un 20% menos propensos a identificar a los peatones si son personas de color. ¿Fue eso debido a la capacitación en inteligencia artificial en una base de sujetos insuficientemente diversa, o hay alguna otra explicación? Una encuesta reciente llevada a cabo por el MIT concluyó que las personas atribuyen una jerarquía a cuyas vidas podrían salvarse en casos extremos donde un choque es inevitable y la pregunta no es si las vidas perecerán, sino cuáles. Según los participantes de la encuesta, las vidas humanas deberían ser salvadas de las de los animales; las vidas de muchos deben ser salvadas sobre las de unos pocos; y los jóvenes deben ser salvados a expensas de los ancianos.

Curiosamente, la gente también pensó que debería haber una preferencia por alguien que empuja un cochecito y observa las leyes de tránsito. La conclusión es que si un AV está programado de acuerdo con dicha ética, sus probabilidades de ser golpeado por un AV pueden aumentar significativamente si usted es un Persona solitaria jay-caminando por una transitada carretera. En la jerarquía moral del estudio, ser un gato, un perro o un criminal está en el nivel más bajo de protección, aunque uno debe preguntarse cómo un vehículo podrá distinguir a un criminal humano de una conexión no penal en tiempo real a la prisión. ¿archivos? ¿Y qué sucede si, por ejemplo, los piratas informáticos activistas de animales modifican la programación para preferir salvar animales sobre personas?

Si hay que creer en la encuesta del MIT, existe tal jerarquía y variabilidad hoy en día, solo escondida en la subconsciencia de los conductores humanos en lugar de en las máquinas. Piensa en eso la próxima vez que cruces la calle.

[ad_2]

Vende Todito