Por @Wicho

una pizarra blanca con un pseudocódigo informático que podría ser de un modelo de lenguaje

No hay ninguna posibilidad de que un generador de patrones estadísticos se vuelva inteligente. No hay nada en esos modelos [de lenguaje] que de verdad imite a la inteligencia.

Llevamos más de 50 años pensando en la inteligencia artificial. Muy profundamente. Y creo que cualquiera que se haya dedicado a ello estaría de acuerdo en que los modelos de IA generativa o cualquier cosa que ahora llamemos IA no son del tipo que nos llevaría a un software autoconsciente.

– Wim Vanderbauwhede
en ctxt

_____
Foto de Bernd Dittrich en Unsplash

Relacionado,

Compartir en Flipboard Publicar
PUBLICIDAD


Por @Alvy

Este vídeo viejuno que rescató Gali de los archivos del legendario programa Horizon de la BBC, titulado Mind the Machine, es una buena muestra de cómo hace 55 años, en 1970, muchas de las preguntas que los investigadores se hacían acerca de la inteligencia artificial eran casi las mismas que hoy en día.

En el vídeo se explica cómo ordenadores y robots habían avanzado hace ya medio siglo hasta ser capaces de desafiar la inteligencia humana en áreas como el ajedrez, la percepción visual y el lenguaje. Aunque tardarían mucho en ganar al campeón del mundo, ser ágiles para captar sin error escenas y «entenderlas» o conversar de forma convincente, es interesante revisitar todos aquellos escenarios y disquisiciones.

Entre tubos de rayos catódicos en fósforo verde y tarjetas perforadas en las que se guardaban los programas, aquello era algo así como el protoprompting, o la forma primigenia de comunicarse con las primitivas IAs de la época.

Los ordenadores y habían aprendido a reconocer objetos, resolver problemas y generar arte, pero su capacidad seguía siendo muy limitada. Una reflexión es que mientras que los humanos combinamos lógica, intuición y emociones, la IA se basa en reglas y cálculos. Su velocidad es impresionante (ya lo era hace 50 años, en cierto sentido), pero aun así sigue sin igualar la complejidad del pensamiento humano en entornos abiertos y cambiantes. Hasta los modelos más avanzados de ChatGPT o DeepSeek son incapaces de hacer todos los cálculos numéricos bien… y de recurrir a una calculadora online cuando lo necesitarían; sorprendentemente dan resultados erróneos o aproximados si les pides una multiplicación de números grandes.

Luego está el aspecto social: a medida que la inteligencia artificial evoluciona, surgen preguntas sobre su papel en la sociedad y su autonomía. ¿Serán solo herramientas o llegarán a tener una independencia similar a la humana? ¿Serán llegadas a ser consideradas «personas artificiales»? ¿Tendrán algún tipo de derechos? En este entorno acelerado en el que vivimos es posible que veamos la respuesta a algunas de estas preguntas en algunas décadas o incluso en unos pocos años.

Relacionado:

Compartir en Flipboard Publicar
PUBLICIDAD


Por @Alvy

Cruce de cables 24 (15 de febrero de 2025)

Un robot en la cocinaLey de inteligencia artificial [~22:00] – En este Cruce de Cables hablamos de la Ley de IA del Parlamento Europeo, un reglamento que se aprobó en 2024 y que ya en 2025 está en marcha hasta que se complete su despliegue en 2027. Entre otras cosas busca asegurar que los sistemas de IA respeten los derechos fundamentales, la seguridad y los principios éticos:

  • ¿Qué implica para las empresas el enfoque de riesgo de la Ley de IA de la UE? ¿Qué medidas específicas se han implementado para proteger los derechos fundamentales de los ciudadanos? Básicamente tendrán que vigilar cómo la usan y qué datos recaban, calificando los riesgos: inaceptable, alto, limitado, mínimo…
  • ¿Cuáles son los ejemplos de prácticas de IA que la nueva ley prohíbe explícitamente? Cámaras de reconocimiento facial masivas, datos biométricos como escáneres del iris, manipulación subliminal, sistemas que pueden usar datos sensibles (origen étnico, creencias religiosas etc) para discriminar o dar trato injusto.
  • ¿Cómo se espera que la Ley de IA afecte la innovación en el sector tecnológico dentro de la UE? En este punto hay un gran debate sobre si esta ley es demasiado protectora y frenará la innovación (ej. complejidad de cumplimiento, explicabilidad) o hará Europa más segura, con mejores prácticas y generará mayor confianza. Quienes dicen que es demasiado protectora bromean con que mientras mientras otros países desarrollan IAs superpotentes como ChatGPT, Deepseek y demás aquí la mayor innovación reciente han sido «los tapones de las botellas de plástico». Una afirmación un tanto injusta porque se están haciendo desarrollos, aunque habrá que ver si esas mejores prácticas sirven de algo a largo plazo.
  • ¿Cuáles son los plazos para la implementación completa de todas las disposiciones de esta regulación? Desde que arrancó en 2024 está en marcha de más riesgo a menos riesgo. En agosto de 2025 entrarán en vigor las normas relacionadas con modelos de IA de uso general, confidencialidad y las sanciones. En 2026 lo harán las aplicables a aplicaciones específicas e incluyen el ID biométrico, categorización de personas, operación de infraestructuras críticas, acceso a servicios públicos esenciales… Y finalmente en 2027 las del uso como "componentes de seguridad". Luego la Ley de IA se irá actualizando.

Relacionado:

Compartir en Flipboard Publicar
PUBLICIDAD


Por @Alvy

Foto (CC) TechCrunch / Sam Altman en Disrupt San Francisco 2019 @ Flickr.

La noticia de ayer fue que Elon Musk y un consorcio de inversores han ofrecido oficialmente 97.400 millones de dólares por OpenAI, o más bien a la entidad sin ánimo de lucro que la controla.

Hay un lío desde hace tiempo porque OpenAI, Inc. se fundó como entidad de investigación de este tipo –incluso Musk aflojó el bolsillo, porque le podría venir muy bien para la IA de Tesla– pero acabó derivando en algo comercial.

Para liar más el asunto, OpenAI, Inc. tiene una pata comercial que es OpenAI Global, LCC a través de la cual vende sus suscripciones. Esta corporación es propiedad al 51% de OpenAI, Inc y el 49% de Microsoft (que pagó 13.000 millones).

Tuits

La reacción no se ha hecho esperar. Primero por inoportuna y macarra. Y segundo, porque los analistas dicen que es una oferta demasiado baja porque OpenAI podría estar valorada a día de hoy en más de 300.000 millones de dólares. Así que Altman, que no se lleva muy bien con Musk desde entonces, ha dicho que «no gracias» y se ha cachondeado diciendo que si quiere le compran a él Twitter por 9.740 millones, que puede ser la décima parte de lo que vale, dado que aunque no cotiza en bolsa y por tanto no tiene una valoración oficial, Musk la adquirió por 44.000 millones y seguramente ya valga el doble.

Atención al detalle de que además Altman no se refiere a la red social de Musk como «X», que es su nombre oficial, sino como «Twitter», el antiguo, metiéndole ahí el dedo en el ojo un poquillo.

Musk, que tampoco es que se corte ni tenga muchas habilidades sociales, le ha contestado con un insulto: «swindler» que viene a ser el equivalente de timador o estafador.

Palomitas

Seguirá el culebrón y lo veremos comiendo palomitas.

_____
Foto (CC) TechCrunch / Sam Altman en Disrupt San Francisco 2019 @ Flickr.

Compartir en Flipboard Publicar
PUBLICIDAD