Para darle una vuelta a su famosa campaña, la gente de Stop Killer Robots ha rodado un documental muy interesante, que además se puede ver con subtítulos en castellano. En él se utilizan dos formatos: los argumentos razonados de expertos y un juego de preguntas de tipo sí/no hechas a gente corriente. Ambos permiten ver cómo se llega –más o menos– a la misma conclusión, aunque lógicamente cada persona tenga su punto de vista y experiencia.
Código inmoral es un documental que contempla el impacto de los «robots asesinos» en un mundo cada vez más automatizado, en el que las máquinas deciden a quién matar o qué destruir.
Las decisiones automatizadas están llegando a todos los ámbitos de la sociedad. Desde los prejuicios preprogramados hasta la protección de datos y los problemas de privacidad, estos algoritmos tienen verdaderas limitaciones, especialmente cuando esa misma autonomía se aplica a los sistemas de armamento.
Las decisiones sobre la vida y la muerte no son blanco o negro, unos y ceros. Son complejas y difíciles. Reducir estas decisiones a procesos automatizados plantea muchos problemas legales, éticos, técnicos y de seguridad.
Aunque la parte argumental es estupenda, me gustó más la parte de las preguntas y respuestas, que me recordó a los dilemas y trilemas de aquellos experimentos filosóficos que ya comentábamos hace una década. ¿Matarías a una persona para salvar a cinco? ¿Y a quinientas? Aquí se utiliza un recurso similar: ir «cociendo a la rana poco a poco», en este caso a la creencias iniciales de la persona, añadiendo matices y variantes. Por ejemplo: aunque nadie mataría a un niño, reconocen que podrían matar en defensa propia, en una guerra por ejemplo, en cuyo caso se les pregunta ¿Y si la persona que te ataca fuera un niño soldado de 12 años? ¿Y si pudiera un algoritmo eliminarlo antes de que te atacara? Ah, ya no son tan fáciles ni binarias las respuestas.
Aunque hoy en día mucha gente confía en los algoritmos y los sistemas de inteligencia artificial («los robots», en este contexto) otras no tienen claro –o no se han preguntado nunca– hasta qué punto están cómodos con una recopilación de datos masiva, con la clasificación automática, con que esos algoritmos pueden discriminar y «juzgar» a la gente. Y esto vale tanto para contratar a alguien para un trabajo como para detectar terroristas o seleccionar objetivos legítimos en un escenario de combate.
Me ha parecido una iniciativa interesante y un buen formato para alimentar la mente con dolorosas píldoras de dudas, tener que razonar sobre ellas y darle una vuelta a la situación actual, que cambia cada día sin que apenas nos demos cuenta.
_____
Traducción de la cita (robotizada) DeepL.
Relacionado:
- Experimentos filosóficos
- La máquina del juzgamiento moral
- El dilema social de los coches autónomos resumido en una imagen
- Dilemas morales y experimentos mentales: el coche sin conductor
- El típico libro que te comprarías sólo por lo acojonante del título
- El «crédito social» en China, sus consecuencias y futuro
- Cosas muy distópicas que ya están sucediendo con los algoritmos
- El enemigo conoce el sistema: manipulación de personas e influencias