Por @Alvy — 30 de marzo de 2023

AI Robot Emoji

Los más de mil firmantes de la carta Hay que pausar los experimentos gigantes con inteligencia artificial publicada en Future of Life están preocupados por las implicaciones de la IA para el futuro de la humanidad y advierten de que estos sistemas –como el popular GPT de OpenAI, que se está integrando en todas partes– pueden ser peligrosos si se desarrollan sin un control adecuado.

La carta hace referencia a casos recientes de IAs y algoritmos descarriados o usados para el mal, como podría ser el caso del algoritmo inteligente de recomendación de YouTube, que promovió la desinformación durante las elecciones presidenciales de Estados Unidos en 2016. Los firmantes de la carta proponen que se pongan en pausa temporalmente los experimentos de IA a gran escala hasta que se implementen medidas de seguridad y control adecuadas.

Investigadores especializados en seguridad en el campo de la IA, como Eliezer Yudkowsky creen que hay que ser más proactivos y buscar soluciones concretas para evitar esos riesgos, en lugar de simplemente identificar posibles problemas como los bugs y casos chistosos que vemos todos los días. Uno de los más conocidos es el problema de la alineación: cómo hacer que los modelos de inteligencia artificial general (AGI) sigan las normas y valores humanas y hagan lo que queremos, en vez de ir a su aire o no obedecer y causar daños aunque sea indirectamente.

Desde hace tiempo hay mucha gente preocupada por la ética de la inteligencia artificial, especialmente los algoritmos, la invasión de la privacidad y la regulación de las relaciones entre humanos y máquinas. En la misma línea, hace tiempo que varios fabricantes de «robots inteligentes» pidieron que no se incorporen armas a los robots de uso general. En España existe la Agencia Española de Supervisión de la Inteligencia Artificial, que todavía está en pañales y no tiene ni página web.

(Vía Time.)

Relacionado:

Compartir en Flipboard Publicar / Tuitear Publicar