En un estudio que está todavía por revisar, unos investigadores cuentan que en una del Test de Turing con tres personas, en la que los participantes conversan con un humano y una IA al mismo tiempo y luego evalúan cuál es cuál, el modelo GPT-4.5 de OpenAI fue considerado humano el 73 por ciento de las veces cuando se le indicó que se comportara con cierta personalidad. Superó a ELIZA, LlaMa 3.1 y GPT-4o. Una cifra de más del 70% es bastante más que la probabilidad aleatoria del 50%, y se considera una señal suficiente –según los investigadores y lo que decía Turing– de que ha superado la legendaria prueba, aunque como suele suceder habrá muchas opiniones al respecto y sobre lo que significa realmente. [Fuente: Large Language Models Pass the Turing Test vía Futurism vía The Conversation.]
Veripol se presentó en 2018 como herramienta de inteligencia artificial con la supuesta capacidad de detectar denuncias falsas de robos con violencia con más del 90% de precisión. Era una especie de «máquina de la verdad» automatizada para rechazar denuncias sospechosas (al menos para la másquina). Seis años después, el experimento ha terminado y la «IA» ha sido desconectada. Estos son los detalles:
Veripol se entrenó con 1.122 denuncias de 2015, que son menos de las que se presentan en dos días en todo el país. Según cuentan, si una denuncia contenía palabras como «día», «abogado» o el número «200» era considerada como «probablemente falsa». (WTF?) En cambio, si mencionaba «autobús», «iPhone» o «matrícula», era más creíble. (WTF×2!) A falta de un detector de mentiras fiable, bienvenidos al mundo de las estadísticas forzadas y los adverbios sospechosos.
En octubre de 2024, la Dirección General de la Policía confirmó que Veripol ya no se usaba. ¿El motivo oficial? «No servía para los procedimientos judiciales». El motivo real: no se sabía muy bien cómo funcionaba, no era transparente, no había formación, y su uso se basaba en una muestra irrisoria con un sesgo de inicio brutal: asumir que más de la mitad de las denuncias que se presentan son falsas.
En julio de 2024 entró en vigor el nuevo Reglamento Europeo de Inteligencia Artificial, que calificaba herramientas como Veripol entre las de «alto riesgo». Traducción: o haces las cosas bien, con transparencia y garantías… o apaga y vámonos. Veripol no pasó el examen. Fin de la historia.
Ni el Ministerio del Interior ni la Policía han querido dar detalles técnicos o datos reales sobre el uso de Veripol. ¿Cuántas comisarías lo usaron? ¿En cuántos casos? ¿Qué formación se dio? Preguntas que desde hace años no tienen respuesta. La transparencia, como la IA, tampoco parece que funcione muy bien en las instituciones. ¿No se supone que hay un departamento sobre transparencia y datos abiertos? Igual estaban de vacaciones.
Veripol nació con vocación de sistema policial futurístico, un poco a lo Minority Report, pero se quedó en un experimento mal documentado, poco fiable y jurídicamente inútil. Una herramienta que analizaba lo que escribía un agente, no lo que decía el denunciante, que suelen ser cosas muy distintas. Y que además pretendía distinguir la verdad de la mentira en base de estadísticas y, lo peor, «listas de palabras sospechosas».
Un caso más de IA inflada de expectativas y desinflada por la realidad. Porque una cosa es programar, y otra muy distinta, impartir justicia sin saber bien lo que se hace y usando mal la tecnología.
Ya sabíamos que ChatGPT es un ávido consumidor de recursos, CPUs y capacidad de computación en general. Pero a medida que el número de usuarios aumenta, así como su popularidad, las cifras comienzan a ser preocupantes. El otro día alguien me lo comentó y hoy comprobé el dato: resulta que ChatGPT consume aproximadamente 25 veces más energía, 3.500 veces más agua* y produce 25 veces más emisiones de CO₂ que una consulta similar en Google… por no hablar de lo necesario para generar ilustraciones, dibujos y otras tontás. Aunque esa discusión siempre es algo relativo, es como para pensárselo dos veces… si acaso se está medianamente concienciado sobre que los recursos del planeta son limitados. [Fuente: irónicamente, datos recopilados por ChatGPT.]
_____ * El consumo de agua se debe a las necesidades de refrigerar los servidores.
Mis soluciones de baja tecnología favoritas [~18:20] – En este Cruce de Cables rememoramos cinco de mis «soluciones de baja tecnología» favoritas, esas soluciones para problemas cotidianos usando «tecnología primitiva», totalmente básica. Entre ellas:
Cómo identificar los auriculares izquierdo y derecho mediante un simple nudo, para saber cuál es cuál incluso en la oscuridad.
El El botijo. En los 90 los profesores Pinto y Zubizarreta desarrollaron la ecuación del botijo con 16 factores: volumen de agua, temperatura, coeficiente de radiación de calor, superficie total del botijo… Pura física y fórmulas matemáticas.