Encontré en Future of Life un buen resumen de los 21 principios sobre inteligencia artificial de la famosa Conferencia sobre la IA Beneficiosa que se celebró allá por 2017, hace algo más de cinco añosn en Asilomar (California). Es un documento que ha influenciado a muchos investigadores de la IA desde entonces pero sobre el que también se han apuntado muchos «descarrilamientos» en los últimos tiempos.
Los 21 principios de Asilomar se agrupan en tres apartados:
- Investigación
- Ética y valores
- Cuestiones a largo plazo
Los principios parten de la idea de crear IAs beneficiosas en vez de IAs «sin dirección». En este sentido todo es positivo y constructivo, en una cultura de cooperación, confianza, transparencia y bla bla bla, cosa que ya hemos visto en menos de cinco años que no ha sucedido.
Los principios incluyen cuestiones sobre la transparencia en caso de fallos en las IAs, incluyendo cuestiones legales y de explicabilidad. Como responsables legales se apunta a quienes diseñen y construyan las IAs, algo aparentemente obvio pero que a veces no lo es tanto. Respecto a la alineación se habla de que estén «alineados con los valores humanos», pero claro, ni siquiera los humanos nos ponemos de acuerdo en muchas situaciones sobre cuáles son esos valores, así que…
La cosa es un poco mejor cuando se habla de privacidad, libertad de uso y control, dejando en los humanos el poder de acceder a sus datos –aunque no menciona a los datos colaterales «recopilados»– o usar las IAs cuando lo consideren necesario (o no). Hay una mención interesante a la «carrera armamentística de las IAs», recomendando evitarla cuando se refiere a las armas letales autónomas.
Respecto al futuro, recomiendan no dar por supuesto cuáles serán los límites de la IA (se ve que no se pusieron de acuerdo respecto a esto), así que mejor estar preparados. Sí que se habla de que será tan importante como para «cambiar significativamente la vida en la tierra», incluyendo riesgos catastróficos. Incluso hay una mención a la superinteligencia y a que debería desarrollarse sólo sobre principios éticos muy amplios y consensuados, para beneficiar a toda la humanidad y no solo a unos pocos (países o empresas). Algo que tiene su lógica pero que también sabemos que es muy difícil –por no decir imposible– de llevar a la práctica.
Relacionado:
- Directrices éticas para una inteligencia artificial fiable
- La Declaración de Bletchley sobre la IA (y lo que opina ChatGPT sobre ella, sin paños calientes)
- Naciones Unidas anuncia un acuerdo de 193 países acerca de la «Ética de la Inteligencia Artificial»
- Una carta abierta pide que se pausen los experimentos con nuevos sistemas de inteligencia artificial a gran escala
- Los 7 mandamientos éticos de Google para el uso de inteligencia artificial
- Sobre ética e inteligencias artificiales
- La ética de un algoritmo que juzga a las personas por su aspecto y por lo que opinan los demás sin conocerlas
- Los problemas morales y sociales de utilizar la IA para hacer los deberes
- Sobre la ética de los asistentes inteligentes
- Esos algoritmos que gobiernan nuestras vidas y sobre los que (casi) nunca pensamos
- Análisis del estado de los modelos actuales de IA respecto a la Ley europea: suspendidos y «deben mejorar»