Inteligencia artificial

Para hablar de todo lo que se os ocurra y temas sin foro propio.
Avatar de Usuario
Kryathos
Teniente Primero
Teniente Primero
Mensajes: 1746
Registrado: Jue Feb 11, 2010 9:49 pm
Ubicación: Weón la weá
Edad: 27
Género:

Re: Inteligencia artificial

Mensaje por Kryathos »

Antes del instinto de supervivencia, para tomar cualquier decisión debe existir libre pensamiento. La ética es una cuestión de poder, y no me refiero a la fuerza física o al carácter fuerte, si no que a nuestra aptitud de poder hacer algo: cuando actuamos, lo hacemos porque preferimos hacerlo, porque podemos (o no podemos, según el caso). Y si la máquina tiene la libertad de tomar decisiones, ¿por qué actuaría según su programación (esto es, minimizar los daños, sacrificando al conductor, según el dilema) en vez de elegir ella misma otra vía?

Como dice Link, si le damos a la máquina esa capacidad, se cuestionará lo mismo que nosotros ahora mismo, y entramos en bucle xD
BF-37 escribió:¿Por qué es mejor o menos malo que mueran dos deconocidos a 5 desconocidos?
No es necesariamente mejor o menos malo, sino que es algo que la mayoría escogería por un razonamiento más matemático que filosófico o humano. Hay un ejemplo que (si no recuerdo mal) aparece en Justicia, de Michael Sandel. Iba más o menos así: en algúna parte del mundo, existe una ciudad donde todo es perfecto, toda la gente es feliz, no hay peleas ni conflictos. Una verdadera utopía. Pero en algún sótano de alguna casa de la ciudad, vive una persona (un joven, si quieren) que hace que la ciudad se mantenga en armonía. Sufre y es atormentado, vive una vida completamente infeliz y depresiva con tal de mantener la paz en la utopía.
¿Es bueno o justo? Para mí, por supuesto que no.
Avatar de Usuario
Gafas D Kuro
Comandante
Comandante
Mensajes: 2626
Registrado: Mié Feb 27, 2013 2:46 pm
Ubicación: On the napia.
Edad: 34

Re: Inteligencia artificial

Mensaje por Gafas D Kuro »

Kryathos escribió:Antes del instinto de supervivencia, para tomar cualquier decisión debe existir libre pensamiento. La ética es una cuestión de poder, y no me refiero a la fuerza física o al carácter fuerte, si no que a nuestra aptitud de poder hacer algo: cuando actuamos, lo hacemos porque preferimos hacerlo, porque podemos (o no podemos, según el caso). Y si la máquina tiene la libertad de tomar decisiones, ¿por qué actuaría según su programación (esto es, minimizar los daños, sacrificando al conductor, según el dilema) en vez de elegir ella misma otra vía?
Porque no puede actuar de otro modo. Una máquina siempre obedecerá su programación original a menos de que se incluya en ésta la capacidad de reescribir su código, cosa que dudo mucho que pase porque:

A) Reescribir código durante la ejecución del programa es algo que en informática siempre se ha desrecomendado.

B) En este caso esa capacidad no aportaría nada. Si existe un algoritmo mejor ya se encargará el fabricante de proporcionarlo vía update.

El debate en sí es bastante interesante y más constructivo que otras derivas sobre IA; pero pienso de una forma parecida a Poli. Primero porque no nos vamos a encontrar con casos en los que estrictamente sólo haya dos alternativas y segundo porque hay elementos cuyo comportamiento no se puede determinar completamente, pasando ya a hablar de probabilidades. Aparte de que estos problemas solemos abordarlos desde una percepción humana, cuando un coche autónomo perfectamente podría entre sensores y comunicación con el entorno tener constancia de los riesgos antes que cualquier conductor humano y pasar a una conducción más preventiva a tiempo.

Personalmente, en este campo me preocupa más el pirateo de la IA de los coches autónomos y apuesto que la carrera por blindar el acceso al código de éstos va a ser muy intensa.
Imagen
Spoiler: Mostrar
Imagen
Avatar de Usuario
Garrac Garrak
Teniente Comandante
Teniente Comandante
Mensajes: 2257
Registrado: Mar Nov 01, 2011 6:17 pm
Ubicación: Ciudad Gorila
Edad: 30

Re: Inteligencia artificial

Mensaje por Garrac Garrak »

Pero es que si creas una máquina con instinto de autopreservación, no hay dilema que valga, porque la máquina podría hacer exactamente igual que el humano al volante, llevarse por delante a cinco personas para no morir él. Así que deja de tener utilidad. Bueno, en realidad, una máquina con instinto de autopreservación y moral propia, no creo que trajera otra cosa que problemas. Lo que se busca en estas situaciones con las máquinas es que no afecte el egoísmo personal y se haga una decisión en base a criterios, en teoría, objetivos. Si a la máquina le das ese punto de moral, no te sirve más que cualquier humano.
Pues ahí se anularía uno de los argumentos a favor de los "Derechos Robóticos", una máquina con las 3 leyes de Asimov, si ve el debate sobre el gordo que puede parar el tranvía, sencillamente se tirará él mismo a los raíles para poder proteger al ser humano.
ese el problema del hombre, quiere ser dios y por eso toda la cagada que hay.
Nada, el ser humano debería lelgar más allá
Muchas teorías filosóficas tienen situaciones imposibles como argumentos, pero eso no las hace menos acorde, eh? xD
Ya, ya lo sé XD Pero que vamos, como he dicho arriba el dilema moral para el robot en cuestión no existe (ya ha dicho Link que las máquinas son creadas para cumplir utildiades que sean afines al ser humano, ¿Que utilidad tiene un robot que a lo mejor te vende a la Mafia?), o sea, un robot para evitar meurtes humanas es capaz de autosacrificarse


Este debate me recuerda a un famoso episodio de Star Trwk: Una Nueva Generación, en el que precisamente hay un juicio en el cual se cuestiona la humanidad de Data, el androide de la Enterprise. Las conclusiones a las que llegan no tienen desperdicio:
http://www.dailymotion.com/video/xxeh50 ... shortfilms

Aunque hay algunas cosas del propio episodio que parecen un poco de ciencia ficción XD
Imagen
No more mutants---By Bolivar FearStyle
Spoiler: Mostrar
Imagen
Avatar de Usuario
Marty McFly
Teniente Comandante
Teniente Comandante
Mensajes: 2366
Registrado: Mar Ago 31, 2010 1:33 pm
Ubicación: Mystery Shack

Re: Inteligencia artificial

Mensaje por Marty McFly »

Garrac Garrak escribió:Pues ahí se anularía uno de los argumentos a favor de los "Derechos Robóticos", una máquina con las 3 leyes de Asimov, si ve el debate sobre el gordo que puede parar el tranvía, sencillamente se tirará él mismo a los raíles para poder proteger al ser humano.
Vamos, lo que dijo xoDet al principio, que el coche mataría a su conductor antes que a los cinco peatones. Otorgándole moral al coche no haces nada (dando por hecho que se pueda llegar a ese punto), puesto que al final sería un humano más, y volvemos a empezar. No habría mejora.

La mejor solución es un análisis de muchas, muchas variables, y eso es algo utópico. El coche debería hacer una estimación en cuanto a todo lo que dijo Poli, sumándole factores como la edad de cada uno, e incluso tener acceso al historial médico por si alguno tiene enfermedades chungas. Vamos, una locura que al menos a día de hoy, es imposible de hacer. Y aun calculándolo todo, no sabes si en el futuro hubiese sido "mejor" que muriese X o Y. Igual atropellas a X porque según los datos era la "mejor" víctima, pero luego resulta que iba a ser el inventor de la cura del cáncer.

Por lo que supongo que acabarán haciendo lo lógico, que es, matar al conductor, y que vivan los peatones.
Imagen
Avatar de Usuario
xoDet
Oficial Técnico
Oficial Técnico
Mensajes: 1147
Registrado: Dom Oct 11, 2009 3:09 pm
Ubicación: Tierras Sediciosas
Edad: 90
Género:

Re: Inteligencia artificial

Mensaje por xoDet »

Polizonte Nack escribió:Creo que el dilema que se plantea es irreal, en tanto que el resultado de un accidente generado a partir de una determinada acción en la conducción no es una certeza, sino a lo sumo una cuestión probabilística, lo que nos llevaría a una pregunta tipo:
"Diez peatones desprevenidos a punto de ser atropellados y tres personas en el coche, si el coche reduce velocidad pero mantiene trayectoria existe un 20% de posibilidades de muerte de entre tres y cinco personas, y un 80% de posibilidades de obtener entre 6 y 8 heridos de gravedad. Si por el contrario el coche gira para chocar contra la pared, existirán un 80% de posibilidades de dos o tres muertos dentro del coche y un 15% de posibles muertos o heridos indeterminados"

No creo que se deba plantear una IA para que responda ante un dilema de ese tipo, más que nada porque si eso fuera así el número de suicidios entre programadores empezaría a ser alarmantemente alto.
Tienes razón en el tema de que el problema aquí está simplificado, pero no veo el dilema irreal. Existen algoitmos para tomar decisiones basados en probabilidades y aunque sea poco probable encontrarse en un caso en el que se deba tomar una decisión así, la IA deberá decidir, teniendo en cuenta los cálculos probabilísticos pertenientes que decisión tomar, poner en peligro a los ocupantes del vehículo o a los peatones u ocupantes de otros vehículos (siendo el caso de que cualquier acción posible llevase a un accidente).
A parte de los cálculos probabilísticos de los resultados de las acciones posibles, también se podría dar una mayor prioridad para que el coche realizara la acción que a priori es más segura por los ocupantes del vehículo o por la acción que a priori salva más vidas (o si detecta personas de estatura pequeña que muy probablemente sean niños opte por la opción en la que más niños estén a salvo). Es aquí dónde la aletoriedad tendría cierto sentido, si todas las acciones posibles llevan a un accidente con una probabilidad muy alta de víctimas, se tiene que priorizar salvar a alguien por edad, número de víctimas, ser propietario del coche o ser unos patitos adorables o dejarlo a la suerte (o mala suerte). Es una situación en principio improbable, pero si se da, se tendrá que reaccionar de alguna manera.

Por otro lado, estoy de acuerdo con gafas que en este tema es más preocupante el pirateo de los coches.

PD:¿Habéis visto robots jugando a fútbol?

(Hacia el 8.40 marcan el primer gol xD)
"Busquem quedar bé en el retaule magnífic
Dels que van pel món amb posat monolític
I afronten la vida mirant-la a la cara
I un dia, contents, compren flors a sa mare."
Avatar de Usuario
Polizonte Nack
Moderador
Moderador
Mensajes: 1217
Registrado: Dom Oct 09, 2005 12:01 am
Ubicación: Sumido en la deseperanza del que espera lo imposible, que es mas esperanza que el no esperar nada.
Edad: 34

Re: Inteligencia artificial

Mensaje por Polizonte Nack »

Link17 escribió:Además es que se pueden añadir variables que es imposible que el coche sepa: la edad de los peatones que va a atropellar (imagina que son tres personas de 90 años y el conductor un chaval de 20), que tengan alguna enfermedad terminal y vayan a morir dentro de poco, que sean asesinos huyendo del lugar de un crimen, que abusen del laísmo...

...

Por lo que supongo que acabarán haciendo lo lógico, que es, matar al conductor, y que vivan los peatones.
Discrepo y mucho.

Si en el tema de las edades, las sacas a colación por una mera cuestión de probabilidad de supervivencia frente a una lesión por mínima que fuera, estoy de acuerdo con tener en cuenta esa variable. Respecto a todo este tema yo creo que se debería buscar la reducción de víctimas y eso sería bastante influyente. Si por el contrario lo enfocas más hacia el carácter moral de la decisión, del tipo "prefiero cinco viejos muertos que el bebé del carrito", no podría estar más en desacuerdo, esa postura tan... humana, siempre se me ha escapado. De hecho, en la peli de "Yo, robot" (que por lo demás no es nada del otro jueves pero viene bien a todo el tema) jamás entendí la pataleta que motiva el odio de Will Smith por los robots xD

Respecto a lo otro, en un contexto de automóviles automatizados, y suponiendo (que ya es mucho suponer) un nivel de perfeccionamiento del sistema que haya permitido que se estandaricen en toda la sociedad, las situaciones de vida o muerte que planteáis serán siempre o casi siempre motivadas por la imprudencia de los peatones (nuevamente, repito lo de que supongamos que no hay fallos). ¿Por qué debería un coche autónomo sacrificar a sus ocupantes debido a la imprudencia de otros, simplemente por el hecho de que estos no vayan en una caja metálica de un par de toneladas?
Y digo esto plenamente consciente de mi condición habitual de peatón imprudente que con cierta frecuencia cruza por donde no debe y como no debe, lo que propiciaría esos dilemas y toma de decisiones en el sistema de la IA.

Por cierto, lo de los laístas si que debería ser tenido en cuenta en los planteamientos. Digo más, las IAs de los coches autónomos destinados a circular mayoritariamente por Madrid deberían estar programadas para acabar con el máximo número de sujetos posibles como medio para erradicar esa lacra social.
xoDet escribió:Tienes razón en el tema de que el problema aquí está simplificado, pero no veo el dilema irreal. Existen algoritmos para tomar decisiones basados en probabilidades y aunque sea poco probable encontrarse en un caso en el que se deba tomar una decisión así, la IA deberá decidir, teniendo en cuenta los cálculos probabilísticos pertenientes que decisión tomar, poner en peligro a los ocupantes del vehículo o a los peatones u ocupantes de otros vehículos (siendo el caso de que cualquier acción posible llevase a un accidente).
A parte de los cálculos probabilísticos de los resultados de las acciones posibles, también se podría dar una mayor prioridad para que el coche realizara la acción que a priori es más segura por los ocupantes del vehículo o por la acción que a priori salva más vidas (o si detecta personas de estatura pequeña que muy probablemente sean niños opte por la opción en la que más niños estén a salvo). Es aquí dónde la aletoriedad tendría cierto sentido, si todas las acciones posibles llevan a un accidente con una probabilidad muy alta de víctimas, se tiene que priorizar salvar a alguien por edad, número de víctimas, ser propietario del coche o ser unos patitos adorables o dejarlo a la suerte (o mala suerte). Es una situación en principio improbable, pero si se da, se tendrá que reaccionar de alguna manera.

Por otro lado, estoy de acuerdo con gafas que en este tema es más preocupante el pirateo de los coches.
Mmmm... eso que planteas ya es otra cosa, pero para mi la pregunta sobre el sistema de toma de decisiones dando prioridad a una parte u otra en función de probabilidades, aunque no se presente tan polarizado en términos de vida o muerte como antes, sigue partiendo de unas casi-certezas erróneas al moverse en el territorio de la probabilidad.

Como hasta yo soy consciente de que lo que acabo de decir está pésimamente explicado, voy a desarrollarlo mejor:
Ante una decisión de programación en el sistema de conducción de carácter moral como las que estamos tratando (porque creo que al menos en eso todos estamos de acuerdo, el sistema en este caso no debe tener conciencia, es la programación la que debe imponer las directrices en la toma de decisiones), el sistema básicamente deberá optar entre seguir su rumbo de acción (o modificarlo lo suficiente como para mantener el control de la situación a la vez que minimiza daños) apechugando con lo que pase, o colapsar contra vete a saber qué y convertirse en... bueno, un instrumento del caos que a saber cómo y dónde acabe.

Esto se traduce en que estas decisiones de priorizar la vida del conductor frente a la de los elementos externos e indefensos se convertirán habitualmente en decisiones entre un factor X de muertes probables manteniendo el control de la situación, y una cantidad menor a X de muertes casi seguras sumadas a una cantidad mayor de X de muertes posibles.
Entonces el asunto es "¿nos la jugamos con una relativamente pequeña probabilidad de desastre y pérdida masiva de vidas, o somos conservadores y asumimos algunas muertes cuyo número tendremos calculado manteniendo el control de la situación?"

Me alegra la victoria de los B-Human, la flagrante falta previa al gol del número cinco de los UNSW debería haber invalidado el tanto. ¡Eso no es intensidad, eso es falta arbitro!

PD: Me resulta divertido ese eterno debate de "¿es mejor que muera una persona o diez?" planteado por la filosofía y su algunas veces absurdo afan de cuestionarse todo, porque las respuestas siempre tienden a esquivar y deformar la pregunta con variables del tipo edad, valía, moralidad y demás historias. Para mi es que no hay debate, porque la verdadera pregunta debería ser: "En una situación donde hace falta una respuesta rápida que defina el futuro de los que intervengan en ella, sin conocer las particularidades de dichos individuos ni su relación con el mundo, ¿es mejor que mueran una o diez personas?"
Mi respuesta siempre será una, salvo que me plantee la cuestión desde un punto de vista tipo VHEMT en cuyo caso probablemente escogiera a los diez xD
ImagenImagen
Avatar de Usuario
Marty McFly
Teniente Comandante
Teniente Comandante
Mensajes: 2366
Registrado: Mar Ago 31, 2010 1:33 pm
Ubicación: Mystery Shack

Re: Inteligencia artificial

Mensaje por Marty McFly »

Polizonte Nack escribió:Por cierto, lo de los laístas si que debería ser tenido en cuenta en los planteamientos. Digo más, las IAs de los coches autónomos destinados a circular mayoritariamente por Madrid deberían estar programadas para acabar con el máximo número de sujetos posibles como medio para erradicar esa lacra social.
Coches autónomos circulando por Leganés 24/7, con especial atención en Butarque.

Respecto al tercer punto más importante de lo que decías (el segundo es el partido de robots, obviamente), me refería a tener en cuenta el factor edad (y las variables que conlleva) para calcular cuánta gente sobreviviría por lesiones tras el impacto. Lo de atropellar cinco abuelos en vez de a una persona joven no lo veo. Joder, que el joven te puede salir vegano.

Y sobre las imprudencias de los peatones... Interesante pregunta. ¿Debería un coche atropellar a un peatón a costa de salvar a la gente que transporta, cuando el peatón es el que comete la imprudencia? Como diría el reverendo Lovejoy, respuesta corta: Sí. Respuesta larga: No, con un pero. Un pero con muchas respuestas morales y más dilemas de gordos y filósofos malvados.

Pero volviendo al segundo punto más importante:

Go UNSW Engineering!
El 5 es intenso como Diego Costa. El robot, no el que lo sujeta, ese es más de... de jugar con robots que juegan al fútbol.
[/size]
Imagen

Imagen
Avatar de Usuario
dragoncitomalo
Teniente Primero
Teniente Primero
Mensajes: 1668
Registrado: Jue Dic 25, 2008 4:48 am

Re: Inteligencia artificial

Mensaje por dragoncitomalo »

hola :wave:
Link17 escribió:
Polizonte Nack escribió:Por cierto, lo de los laístas si que debería ser tenido en cuenta en los planteamientos. Digo más, las IAs de los coches autónomos destinados a circular mayoritariamente por Madrid deberían estar programadas para acabar con el máximo número de sujetos posibles como medio para erradicar esa lacra social.
Coches autónomos circulando por Leganés 24/7, con especial atención en Butarque.

Respecto al tercer punto más importante de lo que decías (el segundo es el partido de robots, obviamente), me refería a tener en cuenta el factor edad (y las variables que conlleva) para calcular cuánta gente sobreviviría por lesiones tras el impacto. Lo de atropellar cinco abuelos en vez de a una persona joven no lo veo. Joder, que el joven te puede salir vegano.

Y sobre las imprudencias de los peatones... Interesante pregunta. ¿Debería un coche atropellar a un peatón a costa de salvar a la gente que transporta, cuando el peatón es el que comete la imprudencia? Como diría el reverendo Lovejoy, respuesta corta: Sí. Respuesta larga: No, con un pero. Un pero con muchas respuestas morales y más dilemas de gordos y filósofos malvados.

Pero volviendo al segundo punto más importante:

Go UNSW Engineering!
El 5 es intenso como Diego Costa. El robot, no el que lo sujeta, ese es más de... de jugar con robots que juegan al fútbol.
[/size]
Imagen

perdón por meter la cuchara, pero esa respuesta la tiene el metro autónomo de singapur, la prioridad son los pasajeros, de hecho en cualquier linea de tren o metro detener a lo bruto el tren es peligroso así que por regla solo se disminuye la velocidad todo lo posible y a ver que pasa.

por lo demás lo del auto sera lo mismo sus sensores detectaran una anomalía y hará todo lo posible por disminuir daños sin afectar a los pasajeros y que dios acompañe al resto.

otro ejemplo los aviones tienen piloto automatico y los pilotos comerciales solo están pata una emergencia y aterrizar y despegar el avión, de hecho los aviones mejor equipados cuentan con un sistema de seguridad en el cual si su sensor detecta otro avión este se mueve a la izquierda y le da la señal al otro para que se mueva a la derecha.

PD. el gran punto débil de una maquina es cualquier cosa que se salga de su programación, no es como un ser humano que se puede adaptar a un imprevisto.

PD. una maquina no se basa en posibilidades sino en parámetros absolutos, nada se deja al azar o la especulación cuando se programa, porque una maquina impredecible es un peligro.

chao :wave:
No te tomes tan a pecho los comentario, el foro es para divertirse.
Los Planes tienden a fracasar, una buena planificación NO fracasara.
Imagen
Avatar de Usuario
xoDet
Oficial Técnico
Oficial Técnico
Mensajes: 1147
Registrado: Dom Oct 11, 2009 3:09 pm
Ubicación: Tierras Sediciosas
Edad: 90
Género:

Re: Inteligencia artificial

Mensaje por xoDet »

Hace poco hubo un ciclo de debates ICREA-CCCB dónde se hablaba de Inteligencia Artificial, aquí hay información y también vídeos sobre las charlas (algunas se hicieron en catalán o en inglés). Todavía no están todos los vídeos de las charlas ya que tardan unas semanas en subirlos, pero supongo que ya lo harán.
http://www.cccb.org/es/marco/ficha/maqu ... ial/221635

Por cierto, en una, creo que en la primera charla, en el turno de preguntas le preguntaron al experto (que por cierto, trabaja con robots que inventan su propio lenguaje) algo parecido a lo que se plantea en el primer post de este tema y comparó a un robot mostrando sentimientos con un actor, no sería nada más que una mera interpretación.

Es más gracioso el fútbol robot, pero aquí están los robots que hablan:
"Busquem quedar bé en el retaule magnífic
Dels que van pel món amb posat monolític
I afronten la vida mirant-la a la cara
I un dia, contents, compren flors a sa mare."
Avatar de Usuario
xoDet
Oficial Técnico
Oficial Técnico
Mensajes: 1147
Registrado: Dom Oct 11, 2009 3:09 pm
Ubicación: Tierras Sediciosas
Edad: 90
Género:

Re: Inteligencia artificial

Mensaje por xoDet »

Hago doble-post porque en menéame he visto esto: Moral Machine
Es una web dónde aparece el dilema moral sobre qué decisión tomar en caso de que la muerte de alguien sea inevitable, ¿salvar a los ocupantes del coche o los viandantes? También está la opción de crear distintos escenarios.
Es entretenido y al final aparecen unos resultados y te comparan con otros en diferentes aspectos. Por ejemplo elegir la opción que salva más vidas, elegir salvar a los ocupantes del vehículo, priorizar la vida humana sobre la animal, la edad o género de las víctimas, respetar la ley, etc.
"Busquem quedar bé en el retaule magnífic
Dels que van pel món amb posat monolític
I afronten la vida mirant-la a la cara
I un dia, contents, compren flors a sa mare."
Avatar de Usuario
dragoncitomalo
Teniente Primero
Teniente Primero
Mensajes: 1668
Registrado: Jue Dic 25, 2008 4:48 am

Re: Inteligencia artificial

Mensaje por dragoncitomalo »

hola :wave:

http://www.emol.com/noticias/Tecnologia ... atico.html

un auto tesla con conducción automática choco porque los sensores no detectaron un camión, bueno tendrán que mejorara los censores de ese auto no puede ser que el sol te joda de esa manera. y reitero una maquina es absoluta no maneja posibilidades es 0 o 1

chao :wave:
No te tomes tan a pecho los comentario, el foro es para divertirse.
Los Planes tienden a fracasar, una buena planificación NO fracasara.
Imagen
Responder