Por @Alvy — 14 de septiembre de 2014

Uno de esos dilemas que tanto nos gustan por las capas y capas de análisis que plantean de una forma extremadamente simplificada y fácil de entender:

Vas por la carretera a bordo de tu coche sin conductor, uno de esos supermodernos que negocian los obstáculos y son capaces de reaccionar ante cualquier cambio. Te aproximas a un túnel. De pronto, un niño pequeño se cruza frente al coche. La situación es tal, que si el coche sigue su marcha, atropellará al niño, matándolo. Pero si se desvía para salvarlo, se estrellará inevitablemente contra las paredes y te matará a ti.

¿Qué debe hacer el coche?

De entre todas las soluciones ético-morales una interesante es recurrir a las famosas tres leyes de la robótica de Asimov, que bien podrían ir implantadas de serie en todos los dispositivos autónomos inteligentes: por desgracia es probable que sus cerebros positrónicos acabaran fundidas, como les ocurría a muchos robots de las novelas del genio de la ciencia-ficción. De hecho en un experimento reciente un robot fallaba miserablemente a la hora de elegir qué humano (representado por un muñeco) debía salvar de caer en un agujero, porque empleaba demasiado tiempo en decidirse.

Quizá, como se explica al final del texto, idear una función aleatoria y aplicarla sería la más justa de las soluciones – al menos la más parecida al MundoReal™: quizá no contentaría a todo el mundo, pero tampoco haría a nadie culpable de lo que sucediera.

La traducción y el vía son de Pedro Jorge Romero; el artículo original es Should your driverless car kill you to save a child? de Jason Millar. Un planteamiento muy similar es el de las Matemáticas para un asesinato en Popular Science: The Mathematics Of Murder: Should A Robot Sacrifice Your Life To Save Two?

Compartir en Flipboard Publicar / Tuitear Publicar