robot de google


Robots.txt : ejemplos de buenas prácticas, errores o extravagancias

Tags: 
robot de google / robots de indexación

Vamos a examinar un archivo fundamental en la gestión del rastreo de una web por los robots de indexación: el fichero robots.txt. Este fichero corresponde a un estándar internacionalmente adoptado para limitar el consumo de banda ancha y no perjudicar servidores web. Puede parecer poco creíble que hoy en día se pueda caer un servidor tan sólo descargando  páginas pero en el caso de webs voluminosas (millones o, a veces, millares de URLs), esto es totalmente factible. La gestión de la carga servidor en este caso es fundamental.

Calcular el Page Rank para visualizar su distribución

Tags: 
google page rank / robot de google / análisis seo / enlaces internos

Un enlace, un voto

Siempre que alguien, en cualquier sitio del planeta, decide compartir un enlace desde su página web, transmite valor hacia la página de destino. Google, desde el principio de su existencia, se ha tomado el intercambio de enlaces muy en serio, considerando que un enlace es igual que un voto que se le da a una página. Y cuantos más votos tenga una página, más popularidad tendrá. En realidad, el concepto clásico es un poco más elaborado, como se puede observar en las visualizaciones de transmisión de Page Rank que mostramos más abajo. Vamos a explicar para qué sirve estudiar la transmisión de Page Rank en el posicionamiento web.

¿Qué importancia tiene el rendimiento en SEO?

Mientras que para algunas páginas web mejorar el rendimiento puede ser la optimización que mayor impacto tenga sobre el tráfico orgánico, en otras puede que no sea la solución principal pero aun así encontrarse entre las cinco primeras soluciones.

Ser rastreado por Google

Ser rastreado es el primer paso para ser indexado… y encontrado por Google.

¿Qué ocurriría si una porción de su página fuese completamente desconocida para Google simplemente  porque el buscador no tiene  el tiempo necesario para explorarla?

¿Cuales son las 30 preguntas de SEO que se debería hacer?

50 indicadores disponibles para cada página con el análisis de sitios web de Botify

El informe de Botify contesta un número virtualmente ilimitado de preguntas. Aquí hay 30 que te deberías hacer.

¿Prácticamente ilimitada, de verdad?

¿Cuales son los principales problemas con la profundidad de un sitio?

¿A qué llamamos profundidad en un sitio?

Llamamos profundidad del sitio al número de clics necesarios para alcanzar cada una de las páginas desde la HOME, usando siempre el camino más corto. Por ejemplo las páginas enlazadas directamente desde la HOME estarán asociadas al nivel 1.

No lo debemos de confundir con…

Lo que cualquier herramienta de analítica entiende como profundidad; en este tipo de herramientas la profundidad suele ser la de la visita, es decir el número y el tipo de páginas que el usuario ve durante su visita.

¿Es posible que estés desaprovechando páginas importantes para SEO?

¿Es posible que estés, sin saberlo, desaprovechando páginas valiosas?

Por decirlo de otro modo, ¿tienes páginas huérfanas con tráfico orgánico potencial o real?

Probablemente la respuesta sea que sí, ya que es lo habitual en la mayoría de páginas web. Volver a vincular algunas de estas páginas a la estructura de tu página web permitiría explotar todo su potencial.

¿Ve Google todas mis páginas?

Controla tus ratios de rastreo y actúa

El primer paso es darse cuenta: ¿saben los buscadores que mi contenido existe? Sin duda en algunos casos sí, pero, ¿en todos? No está tan claro.

Por eso para SEO, el ratio de rastreo es un factor clave ya que muestra cuánto de tu contenido ve Google. Y ¿qué hay más importante que esto? Es así de simple: un buscador no va a mostrar resultados de una página que no existe.

Cuentas y leyendas SEO, no confundimos causa y correlación

Recapitulamos algunos mitos SEO que se difunden a través de blogs o páginas webs de consultoras y que nos son del todo ciertos.

Sitemap.xml

Leyenda

El sitemap garantiza la indexación de las URLs de una página