Por @Alvy — 5 de Octubre de 2008
El ingente volumen de datos para analizar que generará el inmenso Gran Colisionador de Hadrones (LHC) se calcula en unos 15 petabytes al año (eso son unos 15.000 terabytes). Para procesar esa vasta cantidad de información se ha tenido que recurrir a montar un grid de computación distribuida que consta de 100.000 procesadores situados en 140 instituciones científicas a su vez repartidas por 33 países del globo. [Fuente: CERN Officially Unveils Its Grid en ReadWriteWeb.]