El datacenter de Sarenet en el edificio de Tata Communications en el Parque Tecnológico de Bizkaia.
El otro día dimos un paseo por las instalaciones que Sarenet tiene en el Parque Científico y Tecnológico de Bizkaia, muy cerca de Bilbao, dentro de un encuentro con prensa especializada. Se trataba de la presentación de los resultados y planes de negocio de la compañía (puedes leer los detalles en Computerworld o Cinco Días), pero he de reconocer que para mi gusto lo más interesante fue la amable visita guiada a su datacenter, que conecta a este veterano proveedor a Internet a través del edificio y las instalaciones de Tata, uno de los gigantes mundiales de las comunicaciones.
Los estándares «americanos» de construcción del edificio le dan un aspecto especial, desde los letreros a las alarmas, los racks (armarios) y el cableado – kilométrico y metódicamente ordenado. Como es normal es anti-terremotos, anti-inundaciones y «anti-detodo» (impresionante por cierto este vídeo sobre cómo actúa un datacenter en caso de movimientos sísmicos, en este caso en Japón, sirve para hacerse una idea). Lo que se aloja dentro son máquinas que dan servicio a miles de empresas y comunicaciones y datos vitales para muchos negocios las 24 horas del día.
Si alguna vez te has preguntado a dónde llegarías si siguieras el cable de tu casa u oficina hasta la centralita telefónica la respuesta es que llegarías a un sitio como este. Un anillo de fibra óptica de alta capacidad conecta los cuatro datacenters similares que tiene Sarenet: dos en el País Vasco, otro en Madrid y otro en Barcelona (y ya hay otro más en construcción). Desde una de estas salas parte bajo tierra la conexión de fibra óptica que llega a la costa.
De ese punto de la costa cantábrica parte el cable submarino TGN-Western Europe, con una capacidad de hasta 200 Tbps (terabits por segundo) que conecta con Gran Bretaña, concretamente con Highbridge (Inglaterra) y desde ahí a Londres como punto principal de paso al resto del mundo. Son estos mimbres los que conectan usuarios con servidores en eso que llamamos «Internet».
En España hay pocos puntos de salida internacional como este que formen parte de la red troncal de Internet; de hecho se pueden contar con los dedos de las manos. La relevancia de estar cerca de uno de ellos y pasar por menos intermediarios tiene que ver con en la latencia o «retardo» en las comunicaciones internacionales, de modo que permite arañar unos cuantos milisegundos a cada conexión. (Para leer esta página habrás necesitado 30 o 40 conexiones/peticiones; las hay más elaboradas y pesadas que requieren varios cientos de ellas.)
Una latencia mínima no solo implica que el Call of Duty vaya «más fino» –que lo va– también supone VPNs más rápidas y transparentes, mayor calidad para la VozIP o información en tiempo real «más real» para aplicaciones y servicios críticos: operaciones en bolsa ultrarrápidas (HFT), centralitas, móviles… De «mover» todo esto se encargan gigantescos routers de altas prestaciones, que en el caso de Sarenet son equipos 90% Juniper y un 10% Cisco.
Racks de servidores del datacenter de Sarenet. La mayor parte ya son servidores cloud con respaldo automático en la misma sede u –opcionalmente– en todas ellas (incluyendo Madrid y Barcelona)
En ese datacenter se alojan cerca de mil servidores de todo tipo de empresas, en gigantescos racks (armarios estándar) que ocupan varias estancias. Lo más interesante fue comprobar cómo los tradicionales servidores dedicados que las empresas alojan (mediante housing o hosting, con máquinas propias o alquiladas, algunas protegidas tras rejas bajo llave) se están transformando en servidores cloud a una velocidad vertiginosa. De hecho dicen que lo que antes se medía como «servidores por metros cuadrados» ahora se calcula mejor simplemente en «cores» (unos 500 cores físicos por rack) – y a medida que avanza la tecnología un mismo espacio físico puede albergar el 50, 100% o 200% de potencia y capacidad original. El nuevo datacenter lo calculan alrededor de 10.000 cores con más de una decena de racks.
El hecho de pasar a la tecnología cloud (todos los nuevos datacenters serán de ese tipo) permite una gestión mucho más sencilla, aunque requiere vigilar muy de cerca los temas de seguridad. Como hemos explicado muchas veces por aquí también permite ahorrar energía: hasta del 40%, lo cual implica menos gasto, menos emisiones contaminantes y menos «factores críticos».
Tecnología «tradicional» para alimentar la tecnología punta: estos son los generadores eléctricos de emergencia (en «amarillo Caterpillar») de ls instalaciones. Después de las UPS, son capaces de arrancar automáticamente ante una situación de emergencia para proporcionar unos 1350 KW.
El aspecto energético es bastante impresionante en cualquier datacenter; es un poco como visitar «la sala de máquinas del Titanic» u otra forma de entender que información = energía. Normalmente las instalaciones funcionan con la red eléctrica de la zona (en el Parque de Zamudio es especialmente estable y fiable, por su peculiar ubicación) pero estos sitios han de estar preparado para cualquier contingencia. Por eso una buena parte de las instalaciones son gigantescos generadores diesel de emergencia, unidades de alimentación ininterrumpida (UPS) y monstruosos paneles de controles eléctricos listos para entrar en acción si hay cualquier tipo de caída de tensión accidental.
Este serie de tubos no transporta Internet; son tuberías de agua. Junto con grandes bombonas de gas extintor de incendios (que es la primera opción) los aspersores de agua entrarían en acción como último recurso en caso de incendio si todo fallara. Idealmente salvarían los servidores de algo peor.
Actualmente el datacenter consume unos 90 KW de potencia y ha llegado a consumir hasta 140 KW. Pero los generadores de emergencia (que son dos, redundantes) tienen una capacidad de hasta 1350 KW. Hay depósitos extra de diesel en el exterior del edificio y se vigila constantemente su funcionamiento (con simulacros periódicos) de modo que se garantice que puedan sobrellevar cualquier caída. Según los cálculos las instalaciones podrían resistir varias semanas de forma autónoma incluso ante una hipotética «gran catástrofe».
Todo esto a nivel de comunicaciones y seguridad se combina con soluciones alternativas como son el uso de la red inalámbrica 3G/4G como respaldo en caso de fallo de la fibra (la historia reciente de Internet nos ha enseñado que puede haber señoras con palas bastante peligrosas) además de los diversos sistemas de seguridad: cortafuegos, antivirus y demás. ¿Historias como las de WannaCry? Apenas llegaron a enterarse (en toda la empresa apenas hay Windows excepto en algunos equipos de administración; los técnicos, programadores y demás funcionan todos con MacOS o Linux.) Los servidores utilizan desde hace tiempo unidades de almacenamiento SSD montadas por la propia compañía, con capacidades de 4 TB, en montajes RAID de 10×4 TB que ofrecen unos 32 TB por equipo.
Otro de los aspectos interesantes que comentaron sobre todo esto fueron algunas de sus experiencias en la Internet de las cosas, donde cualquier aparatito, artilugio eléctrico (ej. controles industriales) o sensor acaba conectado a la Red. Las soluciones son diversas y dependen de cada cliente. Entre otras cosas están cuidando especialmente cómo evitar problemas de seguridad separando los datos que genera la Internet de las cosas del resto de servidores que un mismo proyecto o empresa tenga en los datacenters. Mundos cercanos pero separados. Muchos de estos proyectos se desarrollan con un presupuesto del ~4% (cercad de 800.000 euros) que la empresa dedica al I+D y donde participan de un modo u otro unas 20 personas de las más de 85 de la plantilla.
Finalmente nos comentaron una última e interesante actividad que puedes llevar a cabo si te apasiona todo esto y te pilla cerca: acercarte a la playa de Sopelana el próximo lunes 12 de junio. ¿Qué va a suceder allí? Se realizará el first landing o primer amarre del nuevo cable MAREA que conectará Vizcaya con la costa de Virginia (Estados Unidos) a través de 8.000 kilómetros de fibra óptica de última generación. Microsoft, Facebook, Telxius y otras empresas emplearan su capacidad de 160 Tbps para mover tráfico entre Europa y América. Si quieres vivir el momento no hace falta invitación: basta acercarse ese día a la playa y mirar.
Relacionado:
- Galería de fotos de los centros de datos de Google
- Internet «por dentro»
- Así es un datacenter de Google por dentro (vídeo 360°)
- Archive.org por dentro, explicado por su jefe de tecnología
- La sala con mayor densidad de interconexiones de Internet del mundo
- 900.000 km de cables submarinos para transportar Internet
- Este es el mapa de cables submarinos más bonito que encontrarás