Link17 escribió:Además es que se pueden añadir variables que es imposible que el coche sepa: la edad de los peatones que va a atropellar (imagina que son tres personas de 90 años y el conductor un chaval de 20), que tengan alguna enfermedad terminal y vayan a morir dentro de poco, que sean asesinos huyendo del lugar de un crimen, que abusen del laísmo...
...
Por lo que supongo que acabarán haciendo lo lógico, que es, matar al conductor, y que vivan los peatones.
Discrepo y mucho.
Si en el tema de las edades, las sacas a colación por una mera cuestión de probabilidad de supervivencia frente a una lesión por mínima que fuera, estoy de acuerdo con tener en cuenta esa variable. Respecto a todo este tema yo creo que se debería buscar la reducción de víctimas y eso sería bastante influyente. Si por el contrario lo enfocas más hacia el carácter moral de la decisión, del tipo "prefiero cinco viejos muertos que el bebé del carrito", no podría estar más en desacuerdo, esa postura tan...
humana, siempre se me ha escapado. De hecho, en la peli de "Yo, robot" (que por lo demás no es nada del otro jueves pero viene bien a todo el tema) jamás entendí la pataleta que motiva el odio de Will Smith por los robots xD
Respecto a lo otro, en un contexto de automóviles automatizados, y suponiendo (que ya es mucho suponer) un nivel de perfeccionamiento del sistema que haya permitido que se estandaricen en toda la sociedad, las situaciones de vida o muerte que planteáis serán siempre o casi siempre motivadas por la imprudencia de los peatones (nuevamente, repito lo de que supongamos que no hay fallos). ¿Por qué debería un coche autónomo sacrificar a sus ocupantes debido a la imprudencia de otros, simplemente por el hecho de que estos no vayan en una caja metálica de un par de toneladas?
Y digo esto plenamente consciente de mi condición habitual de peatón imprudente que con cierta frecuencia cruza por donde no debe y como no debe, lo que propiciaría esos dilemas y toma de decisiones en el sistema de la IA.
Por cierto, lo de los laístas si que debería ser tenido en cuenta en los planteamientos. Digo más, las IAs de los coches autónomos destinados a circular mayoritariamente por Madrid deberían estar programadas para acabar con el máximo número de sujetos posibles como medio para erradicar esa lacra social.
xoDet escribió:Tienes razón en el tema de que el problema aquí está simplificado, pero no veo el dilema irreal. Existen algoritmos para tomar decisiones basados en probabilidades y aunque sea poco probable encontrarse en un caso en el que se deba tomar una decisión así, la IA deberá decidir, teniendo en cuenta los cálculos probabilísticos pertenientes que decisión tomar, poner en peligro a los ocupantes del vehículo o a los peatones u ocupantes de otros vehículos (siendo el caso de que cualquier acción posible llevase a un accidente).
A parte de los cálculos probabilísticos de los resultados de las acciones posibles, también se podría dar una mayor prioridad para que el coche realizara la acción que a priori es más segura por los ocupantes del vehículo o por la acción que a priori salva más vidas (o si detecta personas de estatura pequeña que muy probablemente sean niños opte por la opción en la que más niños estén a salvo). Es aquí dónde la aletoriedad tendría cierto sentido, si todas las acciones posibles llevan a un accidente con una probabilidad muy alta de víctimas, se tiene que priorizar salvar a alguien por edad, número de víctimas, ser propietario del coche o ser unos patitos adorables o dejarlo a la suerte (o mala suerte). Es una situación en principio improbable, pero si se da, se tendrá que reaccionar de alguna manera.
Por otro lado, estoy de acuerdo con gafas que en este tema es más preocupante el pirateo de los coches.
Mmmm... eso que planteas ya es otra cosa, pero para mi la pregunta sobre el sistema de toma de decisiones dando prioridad a una parte u otra en función de probabilidades, aunque no se presente tan polarizado en términos de vida o muerte como antes, sigue partiendo de unas casi-certezas erróneas al moverse en el territorio de la probabilidad.
Como hasta yo soy consciente de que lo que acabo de decir está pésimamente explicado, voy a desarrollarlo mejor:
Ante una decisión de programación en el sistema de conducción de carácter moral como las que estamos tratando (porque creo que al menos en eso todos estamos de acuerdo, el sistema en este caso no debe tener conciencia, es la programación la que debe imponer las directrices en la toma de decisiones), el sistema básicamente deberá optar entre seguir su rumbo de acción (o modificarlo lo suficiente como para mantener el control de la situación a la vez que minimiza daños) apechugando con lo que pase, o colapsar contra vete a saber qué y convertirse en... bueno, un instrumento del caos que a saber cómo y dónde acabe.
Esto se traduce en que estas decisiones de priorizar la vida del conductor frente a la de los elementos externos e indefensos se convertirán habitualmente en decisiones entre un factor X de muertes
probables manteniendo el control de la situación, y una cantidad menor a X de muertes
casi seguras sumadas a una cantidad mayor de X de muertes
posibles.
Entonces el asunto es "¿nos la jugamos con una relativamente pequeña probabilidad de desastre y pérdida masiva de vidas, o somos conservadores y asumimos algunas muertes cuyo número tendremos calculado manteniendo el control de la situación?"
Me alegra la victoria de los B-Human, la flagrante falta previa al gol del número cinco de los UNSW debería haber invalidado el tanto. ¡Eso no es intensidad, eso es falta arbitro!
PD: Me resulta divertido ese eterno debate de "¿es mejor que muera una persona o diez?" planteado por la filosofía y su algunas veces absurdo afan de cuestionarse todo, porque las respuestas siempre tienden a esquivar y deformar la pregunta con variables del tipo edad, valía, moralidad y demás historias. Para mi es que no hay debate, porque la verdadera pregunta debería ser: "En una situación donde hace falta una respuesta rápida que defina el futuro de los que intervengan en ella, sin conocer las particularidades de dichos individuos ni su relación con el mundo, ¿es mejor que mueran una o diez personas?"
Mi respuesta siempre será una, salvo que me plantee la cuestión desde un punto de vista tipo
VHEMT en cuyo caso probablemente escogiera a los diez xD