Por @Alvy

ChatGPT: Optimizing Language Models for DialogueEn un estudio que está todavía por revisar, unos investigadores cuentan que en una del Test de Turing con tres personas, en la que los participantes conversan con un humano y una IA al mismo tiempo y luego evalúan cuál es cuál, el modelo GPT-4.5 de OpenAI fue considerado humano el 73 por ciento de las veces cuando se le indicó que se comportara con cierta personalidad. Superó a ELIZA, LlaMa 3.1 y GPT-4o. Una cifra de más del 70% es bastante más que la probabilidad aleatoria del 50%, y se considera una señal suficiente –según los investigadores y lo que decía Turing– de que ha superado la legendaria prueba, aunque como suele suceder habrá muchas opiniones al respecto y sobre lo que significa realmente. [Fuente: Large Language Models Pass the Turing Test vía Futurism vía The Conversation.]

Relacionado:

Compartir en Flipboard Publicar
PUBLICIDAD


Por @Alvy

La Policía Nacional renuncia a su IA Veripol para detectar denuncias falsas por ser poco fiable y jurídicamente inútil / Imagen: ChatGPT

La buena gente de Civio nos envió aviso acerca del seguimiento que hicieron de Veripol, una herramienta de la Policía Nacional para detectar denuncias falsas, a la que ha terminado renunciado. El caso es que Civio nunca consiguió que hicieran caso a sus peticiones para conocer el funcionamiento técnico de esta herramienta y sobre su uso, pero ha sido la propia policía la que ha desistido por su baja fiabilidad.

Veripol: el algoritmo que quiso ser detective

Veripol se presentó en 2018 como herramienta de inteligencia artificial con la supuesta capacidad de detectar denuncias falsas de robos con violencia con más del 90% de precisión. Era una especie de «máquina de la verdad» automatizada para rechazar denuncias sospechosas (al menos para la másquina). Seis años después, el experimento ha terminado y la «IA» ha sido desconectada. Estos son los detalles:

  • Veripol se entrenó con 1.122 denuncias de 2015, que son menos de las que se presentan en dos días en todo el país. Según cuentan, si una denuncia contenía palabras como «día», «abogado» o el número «200» era considerada como «probablemente falsa». (WTF?) En cambio, si mencionaba «autobús», «iPhone» o «matrícula», era más creíble. (WTF×2!) A falta de un detector de mentiras fiable, bienvenidos al mundo de las estadísticas forzadas y los adverbios sospechosos.
  • En octubre de 2024, la Dirección General de la Policía confirmó que Veripol ya no se usaba. ¿El motivo oficial? «No servía para los procedimientos judiciales». El motivo real: no se sabía muy bien cómo funcionaba, no era transparente, no había formación, y su uso se basaba en una muestra irrisoria con un sesgo de inicio brutal: asumir que más de la mitad de las denuncias que se presentan son falsas.
  • En julio de 2024 entró en vigor el nuevo Reglamento Europeo de Inteligencia Artificial, que calificaba herramientas como Veripol entre las de «alto riesgo». Traducción: o haces las cosas bien, con transparencia y garantías… o apaga y vámonos. Veripol no pasó el examen. Fin de la historia.
  • Ni el Ministerio del Interior ni la Policía han querido dar detalles técnicos o datos reales sobre el uso de Veripol. ¿Cuántas comisarías lo usaron? ¿En cuántos casos? ¿Qué formación se dio? Preguntas que desde hace años no tienen respuesta. La transparencia, como la IA, tampoco parece que funcione muy bien en las instituciones. ¿No se supone que hay un departamento sobre transparencia y datos abiertos? Igual estaban de vacaciones.

Veripol nació con vocación de sistema policial futurístico, un poco a lo Minority Report, pero se quedó en un experimento mal documentado, poco fiable y jurídicamente inútil. Una herramienta que analizaba lo que escribía un agente, no lo que decía el denunciante, que suelen ser cosas muy distintas. Y que además pretendía distinguir la verdad de la mentira en base de estadísticas y, lo peor, «listas de palabras sospechosas».

Un caso más de IA inflada de expectativas y desinflada por la realidad. Porque una cosa es programar, y otra muy distinta, impartir justicia sin saber bien lo que se hace y usando mal la tecnología.

Relacionado:

Compartir en Flipboard Publicar
PUBLICIDAD


Por @Alvy

Más agua, más energía, más emisionesYa sabíamos que ChatGPT es un ávido consumidor de recursos, CPUs y capacidad de computación en general. Pero a medida que el número de usuarios aumenta, así como su popularidad, las cifras comienzan a ser preocupantes. El otro día alguien me lo comentó y hoy comprobé el dato: resulta que ChatGPT consume aproximadamente 25 veces más energía, 3.500 veces más agua* y produce 25 veces más emisiones de CO₂ que una consulta similar en Google… por no hablar de lo necesario para generar ilustraciones, dibujos y otras tontás. Aunque esa discusión siempre es algo relativo, es como para pensárselo dos veces… si acaso se está medianamente concienciado sobre que los recursos del planeta son limitados. [Fuente: irónicamente, datos recopilados por ChatGPT.]

_____
* El consumo de agua se debe a las necesidades de refrigerar los servidores.

Compartir en Flipboard Publicar
PUBLICIDAD


Por @Alvy

Cruce de cables 32 (12 de abril de 2025)

Seguimiento a famosos (IA) GeminiMis soluciones de baja tecnología favoritas [~18:20] – En este Cruce de Cables rememoramos cinco de mis «soluciones de baja tecnología» favoritas, esas soluciones para problemas cotidianos usando «tecnología primitiva», totalmente básica. Entre ellas:

_____
Cada semana grabamos con David Sierra en el distendido ambiente de Cruce de Cables, el programa de Radio Nacional de España, como colaboradores habituales. Se emite en RNE los sábados de 03:00 a 04:00.

Relacionado:

Compartir en Flipboard Publicar
PUBLICIDAD