Por @Alvy — 26 de febrero de 2023

Planning for AGI and beyond

Sam Altman, director ejecutivo de OpenAI ha publicado Planning for AGI and beyond («Planes para la inteligencia artificial general (IAG) y más allá»), una especie medio de plan, medio declaración de intenciones, medio avisos para el futuro sobre los desarrollos en IAG. Esta es la forma en que se suele denominar a las IAs fuertes de «capacidades generales» y «más inteligentes que los seres humanos» frente a las IAs débiles, «para propósitos concretos» y «no tan listas como las personas».

El resumen de sus disquisiciones lo da al principio de la declaración:

  1. Queremos que la IAG permita a la humanidad florecer al máximo en el universo (…) maximizar lo bueno y minimizar lo malo, y que la IAG sea un amplificador de la humanidad.
  2. Queremos que los beneficios, el acceso y la gobernanza de la IAG se compartan de forma amplia y justa.
  3. Queremos sortear con éxito los grandes riesgos (…) Creemos que tenemos que aprender y adaptarnos continuamente desplegando versiones menos potentes de la tecnología para minimizar los escenarios en los que sólo hay «una oportunidad para hacerlo bien».

Hay quien como Javi López califican este documento como momento histórico. Me ha gustado su análisis; aunque es optimista apunta algunas situaciones que también dan mieduqui o pueden resultar un poco aterrorizantes, estilo Proyecto Manhattan. Algo así como lo que le sucedió a Altozano. Dice López que por ejemplo:

(…) Aunque [en OpenAI] aceptan que hay riesgos potenciales, no consideran ni que sea deseable (subjetivo) ni que sea posible (totalmente objetivo) detener el desarrollo de una AGI.

En particular este párrafo de OpenAI resulta un tanto aterrador, hablando de riesgos desconocidos pero que que podrían ser riesgos existenciales (¡adiós, humanos!)

(…) A medida que nuestros sistemas se acercan a la lA general, seremos más cautelosos con la creación y el despliegue de nuestros modelos. Nuestras decisiones requerirán mucha más precaución de la que la sociedad suele aplicar a las nuevas tecnologías, y más precaución de la que muchos usuarios desearían. Algunas personas en el campo de la lA piensan que los riesgos de la lA general (v sistemas sucesores) son ficticios; estaríamos encantados si resulta que tienen razón, pero vamos a operar como si estos riesgos fueran existenciales.

En el artículo se habla de superinteligencia, de la Singularidad tecnológica («progreso continuo y automático de la IA»), del famoso problema de la alineación (cómo hacer que los modelos de las IAs sigan nuestras normas y valores, y hagan lo que queremos) e incluso de planificar «cómo detener la ejecución de una IAG o retirarlo (sic.) si fuera necesario».

Ideas muy interesantes para unos tiempos de cambios espectaculares, que vamos a tener la suerte de vivir en persona.

Relacionado:

Compartir en Flipboard Publicar / Tuitear Publicar