Noviembre2007

Por @Alvy — 30 de noviembre de 2007

5 estrellas: inspirador y muy divulgativo Decoding the Universe: How the New Science of Information Is Explaining Everything in the Cosmos, from Our Brains to Black Holes. Charles Seife. Inglés. 298 páginas.

Apasionante este libro que desarrolla muchas de las ideas de la Teoría de la Información en el que el autor es capaz de explicar cosas realmente extrañas y complejas de una forma totalmente divulgativa y entretenida.

Tras una apertura acongojante en los primeros párrafos del primer capítulo, la aventura comienza por la parte histórica que es bien conocida por los estudiantes de informática y telecomunicaciones: algunas historias sobre criptografía, las definiciones de información y el papel de los canales de comunicación y personajes históricos como Claude Shannon, Turing o Von Neumann, incluyendo alguna jugosa anécdota como la definición de entropía, uno de los términos claves para entender la teoría de la información (en pocas palabras, entropía equivale a algo así como el «aumento del desorden»).

Una vez que ha explicado un poco la base matemática del asunto, el autor comienza a establecer enlaces entre la información y el mundo físico. La información es algo físico es el concepto más importante. Algo que en principio se antoja «etéreo» tiene su equivalencia cierta en el MundoReal™: cada bit de información ha de estar «grabado» de algún modo en un papel, piedra, átomo o partícula, y es tan real como éstos. Entender esta relación es importante porque en paralelo ha ido explicandondo las Leyes de la Termodinámica, con especial énfasis en la segunda («la entropía siempre aumenta con el tiempo») que es clave para entender todo lo demás. Dos cosas totalmente contrarias a la intuición que resultan de todo esto son que borrar información es lo que requiere energía (otras operaciones teóricamente no) y, la más importante (y todavía controvertida) que la información no puede crearse ni destruirse.

En la exploración del mundo físico se hace el necesario repaso a la mecánica cuántica y algunas de sus «paradojas» más notables, experimentos mentales como el del famoso Gato de Schrödinger (al que por aquí tenemos entrañable aprecio) además de todos los habituales de la relatividad de Einstein y la Paradoja EPR, que es de las más difíciles de resolver, como la clásica del Demonio de Maxwell. Una que me encantó es la del «lancero y la cabaña» (spear in the barn) de la que no he encontrado enlaces, así que igual algún día escribo de ella. Actualización (9 de diciembre de 2007): Con información que me enviaron escribí algo más sobre esta paradoja, también llamada paradoja de la escalera en el granero.

A partir de la mitad del libro las cosas empiezan a encajar (también a volverse más y más controvertidas): la teoría de la información explica muchas de las aparentes paradojas del mundo físico y la mecánica cuántica, y a veces simplifica incluso el «cómo funcionan realmente las cosas». Cuestiones importantes como el principio de incertidumbre se mantienen siempre. Los demonios se desvanecen cuando se entiende que han de «procesar información» para lo cual van a gastar energía. El gato puede estar vivo o muerto, pero no ser cuántico porque al ser un macro-objeto la propia naturaleza habrá realizado «mediciones» extraendo información sobre su estado, etc. Pero a su vez todo esto requiere aceptar otros panoramas más y más extraños si cabe.

Cuando el libro termina hablando de la relación entre la teoría de la información y los agujeros negros (de donde nada puede escapar, ¿ni siquiera la información? aunque emiten cierta radiación) la cosa ya empieza a parecer de película de ciencia-ficción (y previamente han explicado los ordenadores cuánticos, el teletransporte y otras cosas increíbles). A estas alturas, el autor explica qué escuelas de pensamiento hay al respecto y cómo por ejemplo un 30 por ciento de los científicos expertos en estos campos están convencidos de la existencia de los universos paralelos porque son la mejor explicación para el cosmos en que vivimos.

El final del libro es tan demoledor como el comienzo: explica por qué según la teoría de la información, y debido a la segunda ley de la termodinámica, en el universo seguirá aumentando su desorden hasta que toda la energía esté uniformemente extendida en un cosmos cada vez más y más «frío», habiéndose consumido a sí mismo. Visto de otro modo, el número de «operaciones» que la naturaleza puede realizar con la energía y la información existente está limitado desde el comienzo de los tiempos, de modo que toda esa información, acumulada en seres vivos, objetos y en cada átomo de planetas y galaxias, quedará disipada y será totalmente inútil. ¿Cuándo? Si no está claro cuándo, al menos sí que será en un plazo finito de tiempo. Ese será el fin del mundo.

La gran «ironía universal» de todo esto es que gracias a la ciencia estamos aprendiendo y descubriendo todos estos secretos del universo, pero todas esas respuestas se perderán en el tiempo y en ese «fin del mundo»: la teoría de la información revela los secretos del universo, pero al mismo tiempo cuál será su final.

Compartir en Flipboard Publicar / Tuitear Publicar
PUBLICIDAD


Por @Wicho — 30 de noviembre de 2007

En estas fechas se tramita en el parlamento español la Ley de Impulso a la Sociedad de la Información, más conocida como LISI, que será la ley que una vez que entre en vigor determinará como va a ser Internet en España en los próximos años.

Con esa ley nos jugamos, entre otras cosas, que la información pública y pagada de nuestros bolsillos sea puesta a disposición de todo el mundo para su uso, copia, modificación y redistribución; el establecemiento del acceso a Internet de banda ancha como un servicio universal y por tanto garantizado, pues es sorprendente la cantidad de lugares de España en los que todavía eso no es posible; y la neutralidad de la Red desde el punto de vista de los operadores de telecomunicaciones.

Por si eso fuera poco, en distintas versiones del proyecto de ley apareció y desapareció varias veces un artículo especialmente polémico, el 17 bis, artículo que daría potestad a ciertas «autoridades competentes» para solicitar la retirada de contenidos de Internet sin autorización judicial alguna, aunque es cierto que a posteriori sí habría que celebrar un juicio para determinar si esa retirada está justificada o no.

Esas autoridades competentes podrían ser, por ejemplo, entidades de gestión de derechos de autor como la SGAE, y dejar en su poder el decidir qué contenidos son lícitos en Internet o no es algo que nos preocuparía a muchos, pues sería algo así como darle las llaves del gallinero al zorro.

Lourdes Muñoz de Santamaría, disputada socialista que está participando en la tramitación de esta ley, aseguraba hace poco que La lisi no deja espacio a la censura, diciendo que

Ni un partido político, ni una asociación privada, ni siquiera un órgano competente podrán restringir una web si afecta a derechos o libertad de información o expresión. La censura no tiene cabida ni caminos abiertos en esta ley.

Pero el problema es que parece que al artículo 17 bis de la LISI cada vez le salen más amiguitos, el último en concreto el Instituto para la Calidad Turística Española (ICTE), cuyo presidente afirmaba estos días en la asamblea de la Organización Mundial de Turismo que «las bitácoras se utilizan como plataforma para emitir opiniones interesadas contra destinos de la competencia» y pedía «un compromiso que obligue a las compañías tecnológicas a crear herramientas que permitan controlar este fenómeno», como se puede leer en El sector turístico quiere controlar las opiniones vertidas por los 'blogs' de viajes.

Y quien habla de la industria discográfica y hotelera puede hacer la extrapolación fácilmente a la de la construcción, la automovilística, o la de los bancos y servicios bancarios, donde esta misma semana se conocía el caso de la demanda de Ausbanc Consumo contra Rankia por ciertas opiniones de terceros vertidas en los foros de Rankia.

Si la reciente sentencia firme contra la Frikipedia o la primera sentencia contra Alasbarricadas.org son indicativas de por dónde van las cosas, a Rankia le quedan los días contados.

Y conviene no olvidar que la SGAE demandó también a Julio Alonso por una anotación de su blog en la que meramente informaba sobre el google bombing contra la SGAE que en su momento hizo que al escribir «ladrones» como término de búsqueda en Google y pulsar el botón «Voy a tener suerte» la página que aparecía era la de la entidad en cuestión

No se si me dejo algún caso en el tintero, pero todo esto entronca directamente con la autocensura de la que hablaba David Bravo en su conferencia de clausura de Evento Blog España 2007, pues si los autores de blogs temen las consecuencias legales de lo que escriben, es más que posible que ellos mismos se pongan límites en su libertad de expresión para evitar problemas.

Así que habrá que estar muy pendiente de lo que pasa, porque las cosas no tienen una pinta muy halagüeña., en especial mientras el artículo 17 bis de la LISI conserve esa vaguedad acerca de quienes son esas «autoridades competentes».

Actualización: Los Antonios hablan también de estos temas en Todos quieren ser "Autoridad Competente" en Internet (Caspa.tv, Antonio Delgado) y El culturetariado no está sólo (Error500, Antonio Ortiz).

Compartir en Flipboard Publicar / Tuitear Publicar
PUBLICIDAD


Por @Alvy — 30 de noviembre de 2007

En realidad todos los números son igual de probables pero…

Tal y como cuentan en 20 Minutos según datos que se han oído también en otros sitios, parece que para el tradicional Sorteo Extrordinario de Navidad de este año las terminaciones en 3 son las claras favoritas de la gente, seguidas del 5 y del 7. Lo raro es que estos números favoritos varían según estés en Madrid o Andalucía (prefieren el 7), Canarias o Cantabria (prefieren el 5) así que se ve que no es una ciencia exacta.

Curiosamente el 13 y el 69 son las terminaciones de dos cifras más buscadas por los compradores, en una suerte de triscaidecafobia inversa a la par que de mirada sucia-pillina hacia la diosa fortuna.

Lo que más sentido (de la vida) tiene de todo esto es el inequívoco dato de que el 42 por ciento de los compradores de lotería tienen claras preferencias por ciertas terminaciones.

Compartir en Flipboard Publicar / Tuitear Publicar
PUBLICIDAD


Por @Alvy — 30 de noviembre de 2007

Google Reader ahora recomienda feeds a los que no estuvieras ya suscrito. ¿Cómo funciona este sistema? es automático y consiste en sugerirte feeds a los que esté suscrita gente que tiene (en conjunto) suscripciones parecidas a las tuyas, además de que tambien en cuenta tu historial web y ubicación geográfica, por aquello del idioma.

Un detalle genial es que te indica cuántas anotaciones publican esos blogs por día o por semana, para que puedas ver si te interesa o no por el ritmo que lleven.

Como los datos de todas las personas y sus suscripciones, navegación y ubicación las maneja Google de forma agregada no hay problemas de privacidad. Parece una buena forma de descubrir nuevos feeds, blogs y fuentes de información.

Tal y como cuentan en Genbeta además mejoraron la interfaz y se pueden «recolocar» las suscripciones con arrastrar-y-soltar.

A todo esto yo sigo siendo de los que prefieren NetNewsWire (y las aplicaciones instaladas en el entorno seguro y controlable de tu propio ordenador), pero cada vez más y más gente parece estar pasándose a Google Reader.

Para los novatos: ¿Qué es un feed RSS?.

Compartir en Flipboard Publicar / Tuitear Publicar
PUBLICIDAD