¿Qué importancia tiene el rendimiento en SEO?

Mientras que para algunas páginas web mejorar el rendimiento puede ser la optimización que mayor impacto tenga sobre el tráfico orgánico, en otras puede que no sea la solución principal pero aun así encontrarse entre las cinco primeras soluciones.

Ser rastreado por Google

Ser rastreado es el primer paso para ser indexado… y encontrado por Google.

¿Qué ocurriría si una porción de su página fuese completamente desconocida para Google simplemente  porque el buscador no tiene  el tiempo necesario para explorarla?

Afortunadamente hay algo que se puede hacer: mejorar el rendimiento, lo cual aumentará casi de forma automática el volumen de rastreo de Google.

Si Google puede acceder a sus páginas más rápidamente será posible que acceda a más páginas en una misma cantidad de tiempo. Lo cual es una muy buena noticia, ya que el tiempo dedicado a rastrear su página web (o presupuesto de rastreo) no es algo que cambie de un día para otro, sino que depende en gran medida de varios factores relacionados con el índice de popularidad (Page Rank y enlaces externos, autoridad, historial, etc., factores que lleva tiempo establecer), así como con la calidad y cantidad del contenido.

En lo que respecta a tiempos de respuesta, usuarios y robots no tienen una experiencia similar al visitar una misma página. Los gráficos de arriba proceden de Google herramientas para webmasters, y muestran indicadores de performance desde la perspectiva de los robots (se pueden encontrar en Rastreo/ Estadísticas de rastreo), indicando el tiempo de descarga para la página HTML sin elementos asociados como imágenes, etc.

Si necesita un orden de magnitud para saber cuándo estar contento con el rendimiento y cuándo preocuparse, aquí van algunas pistas:

El objetivo sería obtener un promedio de tiempo de descarga inferior a 800 ms, o a 500 ms, dependiendo de cómo esté ya de optimizada la página. Según lo cual:

  • Más de 1000 ms: mal
  • Menos de 1000 ms : bien
  • Menos de 500 ms : excelente

Pero la primera pregunta que surge es: ¿por dónde empezar?

Google herramientas para webmasters muestra valores promedios de tiempos de descarga. Sin embargo, es muy probable que cada patrón de página tenga tiempos de 

¿Y qué pasa con el rendimiento desde el punto de vista del usuario?

Esto es casi un tema aparte. También importa, y mucho, ya que la experiencia del usuario se ha convertido en uno de los factores fundamentales a tener en cuenta. Pero importa para páginas que son visitadas por un número significativo de usuarios, de las que Google recibirá una gran cantidad de señales. Por tanto, un número de páginas muy inferior al número total de páginas rastreadas, lo cual, teniendo en cuenta que lo importante es el tiempo de descarga de todos los elementos, implicaría tener que llevar a cabo otro tipo de optimizaciones adicionales.

¿Qué se puede hacer para mejorar el rendimiento del rastreo?

Gestión de Sesiones

La mayoría de páginas web tratan de igual manera a robots y a usuarios. Pero no es necesario gastar tiempo y energía en cosas pensadas para usuarios reales cuando la petición viene de un robot. Un ejemplo típico es la gestión de información de la sesión. No tiene sentido crear una sesión para un robot, que no lo necesita, ya que el no hacerlo, nos permitirá mostrar las páginas más rápidamente al robot.

Entonces…. ¿Por dónde empiezo?

Otras optimizaciones de rendimiento son las que están relacionadas con el código y la infraestructura, y son muy específicas para cada página web. Descarga muy diferentes, siendo algunos más estratégicos que otros para el tráfico SEO o el tráfico global.

Entonces, dónde hay más margen de mejora? Qué patrón de página merece la pena optimizar?

Es aquí donde Botify Analytics puede suponer una gran ayuda. El informe del crawler muestra:

  • Una vista global del rendimiento de la página web, con detalles de distribución (cantidad de resultados buenos y cantidad de resultados mejorables)

  • Información para identificar las páginas más lentas, con sugerencias de patrones de URLs para ayudar a identificar aquellas páginas con las peores performance

  • Cualquier otra métrica adicional, para validar que páginas merece la pena optimizar (se puede excluir a las páginas profundas por ejemplo). Esto se hace en el explorador de URLs, desde donde se puede sacar la lista entera de URLs correspondientes a un patrón, y exportar estos datos (la tabla por defecto incluye URL y tiempo de descarga).

Una optimización especial que funciona de forma casi mágica

Una vez publicado, es probable que el contenido de una página no cambie mucho, e incluso a veces, nada. Podemos evitar enseñar siempre el mismo contenido a Google cuando éste no se ha cambiado. Para ello haremos uso del código de resolución 304. Este código significa “no modificado”, en respuesta a una petición http que incluye una opción “si modificado desde”, que es algo que Google usa habitualmente. Pero este lo analizaremos más en detalle próximamente ya que necesita su propio post.

Esté atento: algunas optimizaciones son buenas para usuarios pero no para los robots.

Puede que algunas optimizaciones que funcionan perfectamente para usuarios, no sean tan útiles para robots, ya que están basadas en comportamientos esperados, cuando los robots no actúan como usuarios. El mejor ejemplo es el uso de un CDN (Content Delivery Network, como el de Akamai).

Un CDN tendrá cachés locales en su sitio para usuarios, en varios lugares del mundo, cada uno incluyendo las páginas más vistas en esa parte del mundo. Está pensado para asegurar una mejor experiencia de usuario guardando copias de las páginas que más visitas reciben.  Lo que hacen los buscadores sin embargo es ir a casi todas las páginas de una página web, coincidiendo sólo en algunas ocasiones con las páginas que visitan los usuarios.

Eso significa que los buscadores sacan a menudo páginas sin caché. El CDN tendrá que sacar las páginas desde su origen (el servidor del sitio) antes de poder enseñar la página. Lo que llevará más tiempo que si el robot hubiese pedido las páginas directamente al servidor, teniendo en cuenta además que el buscador podría estar en la otra punta del planeta. De modo que, aún con un acierto de la caché, la ganancia no es tan evidente. Conclusión: Los CDNs no son muy útiles para los robots.

Esto no significa que estemos recomendando evitar el uso de CDNs (ya que sirven evidentemente para un determinado objetivo y lo sirven bien). Solo llamamos la atención sobre los efectos inesperados que pueden sucederse cuando se trata de “optimizaciones de rendimiento”.

Ten en cuenta a los robots

De los ejemplos que se han tratado queda claro que hay:

  • Optimizaciones para usuarios (como CDNs),
  • Optimizaciones para robots (como no guardar la información de la sesión).
  • Optimizaciones para los 2 (como responder con un código de resolución 304 a una petición http del tipo “si modificado desde” u optimizando el código HTML)

Y no hay que confundirlas.

Este artículo es una traducción del post de Annabelle Bouard en el blog oficial de Botify Performance really matters for SEO