En la Universidad de Cambridge tienen un curioso departamento dedicado podríamos decir al análisis de diversas versiones del fin de mundo, apropiadamente llamado
Estos riesgos existenciales para la raza humana los han dividido en cuatro, que son básicamente eventos de baja probabilidad pero alto impacto, entre ellos:
- Riesgos tecnológicos extremos
- Riesgos biológicos catastróficos globales
- Riesgos extremos relacionados con el colapso del ecosistema
- Riesgos asociados a la Inteligencia Artificial
Cada apartado tiene interesantes contenidos y apuntes sobre qué tipo de eventos producirían estos problemas catastróficos: desde una inteligencia artificial controlando las armas militares y causando un desastre global por error al colapso del ecosistema debido a la emergencia climática global en que estamos inmersos o a una pandemia que borre a los seres humanos del mapa.
Para no verlo todo negativfo y ser un poco positifvos el CSER también se dedica a preparar trabajos y vídeos acerca de cómo mitigar o minimizar estos riesgos. Entre otros están cómo hacer que las IA sean más fiables, cómo conservar las semillas para que sobrevivan a un posible escenario apocalíptico y cosas así. Tranquiliza saber que al menos hay alguien pensando en todo esto.
(Vía Genís Roca + Pilar Kaltzada.)