Tal vez por ser de los más primarios el tema de la «velocidad» de las páginas web y su «peso» sigue siendo infravalorado por muchos. Pero encontré (víaa reddit) un antiguo y revelador ejemplo que Greg Linden publicó hace un par de años que explica perfectamente el problema. Es una anotación titulada Marissa Mayer at Web 2.0 que hace referencia a la participación de la vicepresidenta de Google en una conferencia de entonces.
Allí se explica que en experimentos con usuarios realizados por Google sobre su buscador cuando se aumentaba el número de resultados por página de 10 a 30 se comprobaba que el tráfico (en referencia al número de páginas servidas) disminuía un 20%. Como la idea era ganar más dinero con más anuncios en esos resultados no estaba claro qué sucedía, excepto que era algo malo. Cuando investigaron la causas consiguieron aislar la «variable oculta»: la página web tardaba 0,9 segundos en cargar frente a los 0,4 segundos que tardaba normalmente. En otras palabras: medio segundo de retraso hacía disminuir en un 20% el tráfico de esas páginas. Y estamos hablando de páginas que cargaban en menos de un segundo.
Lo interesante es que Greg cuenta que en Amazon hicieron el mismo experimento con pruebas A/B en las que son unos maestros, insertando un retardo en las páginas de 100 en 100 milisegundos. El resultado fue que comprobaron que incluso retrasos tan pequeños como esos acaban produciendo una disminución sustancial en el tráfico y los beneficios que generan las páginas. En el caso de Amazon eran ventas; en el de Google, clics en los anuncios publicitarios.
Ser rápido importa. Ser performaniaco importa.
- Páginas web más y más pesadas, se ha triplicado el peso en cinco años
- Pingdom Full Page Test, medidor de velocidad de páginas web
- YSlow, el analizador de rendimiento web de Yahoo (vaya nombre)
- OctaGate SiteTimer: medir la «velocidad» de páginas web