Todos deberíamos tener claro que los algoritmos que deciden qué vemos y en qué orden en redes sociales como Facebook o Instagram nos proporcionan una visión sesgada de mundo, ajustada a nuestros gustos y a los intereses de quienes manejan esas redes. A fin de cuentas, como se suele decir, cuando no pagas por un servicio es que tú –la información acerca de ti– eres el pago. Con buscadores como Google pasa lo mismo; de hecho los resultados de una búsqueda serán distintos si la haces con una sesión abierta en tu cuenta que si lo haces sin abrir sesión o incluso en modo anónimo.
Pero además de nuestra experiencia con las redes sociales y con el mundo a través de las búsquedas, lo que no es poco, hay montones de algoritmos en juego en muchos otros aspectos de la vida, sin que a menudo seamos conscientes de ello. Algoritmos que manejan datos acerca de nosotros y que pueden decidir si nos conceden un crédito o no o el importe de la cuota de nuestro seguro de vida.
Pensando en esto un grupo de investigadores estadounidenses junto con la ACLU, han lanzado AI Now, un proyecto para intentar identificar y sacar a la luz cómo estos algoritmos influyen en nuestras vidas, los queramos llamar inteligencia artificial, sistemas expertos, o cómo nos dé la gana.
De su primer gran simposio público al respecto han publicado el informe The AI Now Report [PDF], en el que ofrecen una serie de recomendaciones para las distintas partes implicadas en la creación, utilización, gobernanza y evaluación de este tipo de sistemas:
- Problema: Desarrollar e implementar sistemas de IA requiere importantes infraestructuras y recursos de datos. Esto limita las oportunidades de innovación en IA y lo que se aprende de ellos a aquellos que tienen acceso a dichos recursos. También limita la competencia si los costes son prohibitivos para quienes quieran empezar a trabajar en el tema.
Recomendación: Diversificar y ampliar el acceso a los recursos necesarios para el desarrollo y despliegue de la IA - tales como conjuntos de datos, recursos informáticos, educación y formación, incluyendo oportunidades para participar en dicho desarrollo. Enfocar los esfuerzoz especialmente en aquellos segmentos de la población que en la actualidad carecen de dicho acceso. - Problema: Los sistemas de IA ya están modificando el trabajo de las personas y cambiando las estructuras de gestión en los sectores laborales. Los datos aportados por los participantes, incluyendo a Jason Furman, presidente del Consejo de Asesores Económicos del Presidente Obama, sugiere que los trabajos de baja calificación son los que están en mayor riesgo de ser sustituidos por procesos automatizados y la IA. Esto plantea importantes interrogantes sobre las redes de seguridad social existentes y la distribución de recursos humanos en un mundo donde las máquinas hacen más trabajo.
Recomendación: Actualizar definiciones y marcos de trabajo que especifiquen prácticas laborales justas para mantenerse al día con los cambios estructurales que ocurren a medida que los sistemas de gestión con IA se despliegan en el lugar de trabajo. Investigar también modos alternativos de distribución de ingresos y recursos, educación y reentrenamiento que sean capaces de responder a un futuro en el que el trabajo repetitivo esté cada vez más automatizado y las dinámicas de cambio de trabajo y empleo cambian. - Problema: La IA y los sistemas automatizados de toma de decisiones a menudo se despliegan como un proceso de fondo, desconocido e invisible para los que impactan. Incluso cuando son vistos, pueden proporcionar evaluaciones y guiar las decisiones sin ser plenamente comprendidos o evaluados. Visibles o no, a medida que los sistemas de IA se van extendiendo a través de los distintos ámbitos sociales, existen pocos medios establecidos para validar la imparcialidad de los sistemas de IA, y para impugnar y rectificar decisiones o impactos erróneos o dañinos.
Recomendación: Apoyar la investigación para desarrollar los medios de medición y evaluación de la precisión y equidad de los sistemas de IA durante la fase de diseño y despliegue. Del mismo modo, apoyar la investigación para desarrollar medios de medir y abordar los errores y daños de la IA una vez en uso, incluyendo mecanismos de rendición de cuentas que impliquen notificación, rectificación y reparación para aquellos sujetos a la toma de decisiones automatizada de los sistemas de IA. Dichos medios deberían priorizar la notificación a las personas cuando estén sujetas a la toma de decisiones automatizada, y desarrollar vías para impugnar juicios incorrectos o adversos. Además, investigar cómo se vería la capacidad de «optar por no participar» en la toma de decisiones de este tipo en diversos contextos sociales y económicos. - Problema: Las restricciones legales vigentes en Estados Unidos, como la Ley de Fraude y Abuso de Computadoras (CFAA) y la Ley de Derechos de Autor del Milenio Digital (DMCA), amenazan convertir en ilegales formas de investigación fundamental para determinar cómo la imparcialidad y responsabilidad de los sistemas institucionales públicos y privados se verán afectadas por el creciente despliegue de los sistemas de IA.
Recomendación: Aclarar que ni la Ley de Fraude y Abuso de Computadoras ni la Ley de Derechos de Autor del Milenio Digital tienen como objetivo restringir la investigación sobre la responsabilidad de AI. - Problema: En la actualidad, carecemos de métodos acordados para medir y evaluar los impactos sociales y económicos de los sistemas de IA, aun cuando éstos se despliegan rápidamente a través de ámbitos sociales básicos como salud, trabajo y justicia penal.
Recomendación: Apoyar la investigación fundamental sobre metodologías sólidas para la evaluación y valoración de los impactos sociales y económicos de los sistemas de IA desplegados en contextos del mundo real. Trabajar con las agencias gubernamentales para integrar estas nuevas técnicas en sus capacidades de investigación, regulación y aplicación. - Problema: Las personas directamente afectadas por el despliegue de los sistemas de IA dentro de los dominios sociales y económicos básicos rara vez tienen un papel en su diseño, o medios para alterar sus supuestos y usos.
Recomendación: Trabajar con representantes y miembros de las comunidades afectadas por la aplicación de sistemas automatizados de toma de decisiones y de IA para diseñar conjuntamente IA con rendición de cuentas, en colaboración con quienes desarrollan y despliegan dichos sistemas. - Problema: Los sistemas de IA se están desplegando en ámbitos sociales y económicos clave, cada uno con su propia estructura, historia y protocolos. Sin embargo, el enfoque de la investigación en IA es principalmente técnico, con menos contribuciones de disciplinas que priorizan contextos humanos, experiencia y cuestiones sociopolíticas, como las ciencias sociales y humanidades. Además, el subcampo de la informática de la IA está fuertemente dominado por hombres con antecedentes raciales y étnicos en gran medida homogéneos. Esto puede limitar las perspectivas y experiencias de los creadores de IA, y llevar a una mayor posibilidad de sesgo «como yo».
Recomendación: Aumentar los esfuerzos para mejorar la diversidad entre los desarrolladores e investigadores de la IA, y ampliar e incorporar toda la gama de perspectivas, contextos y antecedentes de distints disciplinas en el desarrollo de los sistemas de IA. El campo de la IA también debe apoyar y promover iniciativas interdisciplinarias de investigación en IA que consideren el impacto de los sistemas de IA desde múltiples perspectivas, combinando los computacional, social y humanístico. - Problema: Los códigos de ética profesional, cuando existen, hoy en día no reflejan las complejidades sociales y económicas de desplegar sistemas de IA en ámbitos sociales críticos como la atención médica, la aplicación de la ley, la justicia penal y el trabajo. Del mismo modo, los planes de estudios técnicos de las principales universidades, por mucho que recientemente hayan hecho hincapié en la ética, rara vez integran estos principios en su formación básica a nivel práctico.
Recomendación: Trabajar con organizaciones profesionales como The Association for the Advancement of Artificial Intelligence (AAAI), The Association of Computing Machinery (ACM) y The Institute of Electrical and Electronics Engineers (IEEE) para actualizar (o crear) códigos de ética profesional que reflejen mejor la complejidad del despliegue de la IA y los sistemas automatizados en el ámbito social y económico. Reflejar estos cambios en la educación, haciendo cursos de derechos civiles, libertades civiles y ética formación obligatoria para cualquiera que desee especializarse en Ciencias de la Computación. De forma similar, actualizar los códigos deontológicos profesionales que rigen las profesiones en las que se están implantando los sistemas de IA, como los aplicados a los médicos y a las personas que trabajan en hospitales.
La idea es que estos puntos sirvan como guía para estudiar y mejorar la implantación de las IA en cuatro campos como son la desigualdad social, el trabajo, los sistemas sanitarios, y la responsabilidad ética de usar sistemas de IA.
Que por mucho que la inteligencia artificial de las películas siga siendo, por ahora, ciencia ficción, estas variantes menos espectaculares pero ya en uso están cambiando muchas cosas aunque no seamos plenamente conscientes.
Aparte del informe aquí citado están también disponibles en línea los materiales de los simposios que AI Now lleva organizados por ahora, el de 2016 y el de 2017.
(Vía MIT Techonology Review).
Relacionado,