sábado, 24 de noviembre de 2018

La máquina moral

La máquina de la moral


El Instituto Tecnológico de Massachusetts (MIT) trabaja con una máquina de la moral a la que han llamado Moral Machine. Es un sistema de inteligencia artificial que presenta distintos escenarios en los que los coches tienen que tomar decisiones a la hora de resolver un accidente con el menor número de víctimas posible. En estas situaciones se asume que frenar y evitar la colisión no es una opción: se trata de casos en los que el automóvil está 100% seguro de que alguien sufrirá daño pero puede actuar para seleccionar quién lo sufrirá. 



Las situaciones se presentan en una página web donde cualquier persona puede jugar a decidir qué cree que debería hacer el coche en cada uno de los ejemplos. 


Pincha en este en este enlace para jugar a decidir que crees que debería hacer el coche en cada una de las situaciones:  http://moralmachine.mit.edu/hl/es



A través de distintas preguntas, los investigadores tratan de establecer cuál sería el comportamiento más adecuado que debería tener un coche sin conductor desde un punto de vista moral para la mayoría. Analizando los resultados, han detectado que "casi por unanimidad la gente quiere coches que minimicen los daños totales". 



Pero aún minimizándose los daños, ¿quién debe salvarse con más prioridad? ¿Quién ha respetado las señales de tráfico? ¿Los más jóvenes? ¿Los más sanos? ¿Un médico frente a un ladrón? ¿Podrán los coches llegar a detectar si una mujer está embarazada o a qué se dedican los transeúntes? Los expertos no se atreven a vaticinarlo pero todo apunta a que esta tecnología está más limitada por las cuestiones morales que por sus posibilidades de desarrollo.

También los filósofos

En colaboración con el MIT, los especialistas en ética y filósofos han encontrado un nicho en el que contribuir a la programación de las máquinas. Ya en 2015 se organizó un congreso en la Universidad de Stanford —uno de los puntos calientes en los que se están realizando estos debates— para reunir a ingenieros y filósofos y debatir sobre la naturaleza de las decisiones de los coches autónomos. Implementaron distintas configuraciones éticas dentro del software que controla los vehículos autónomos y luego probaron el código en simulaciones e incluso en vehículos reales.

Mientras que algunos trabajan en enseñar a pensar a las máquinas, otros defienden que los coches sin conductor no deberían tomar decisiones sobre la vida o la muerte.

El verdadero dilema

Más allá de las decisiones que debe tomar el coche, los pasajeros deben plantearse una cuestión fundamental: ¿te montarías en un coche que, llegado el momento, elegiría estrellarse y sacrificarte? La respuesta de la mayoría fue la primera que te viene a la mente: ¡no! Iyad Rahwan lo explica: "El problema viene cuando les preguntamos si comprarían ese coche. Su reacción fue: nunca compraría un coche que me pudiera hacer daño a mí bajo ninguna circunstancia". Y Alfonso Rodríguez-Patón, profesor de la Universidad Politécnica de Madrid, está de acuerdo: "La mayoría de los ciudadanos van a querer que su coche les salve primero a ellos", explica. "Piensan: "que mi coche sea seguro pero para mí primero".