Cómo debe aparecer el Sitemap en el Robots de cara al SEO

Es posible que no lo sepas, pero tu archivo Sitemap debe aparecer referenciado en tu archivo Robots. Pero, bueno primero hablemos un poco sobre ambos para determinar su importancia en el posicionamiento.

Robots SEO

Sitemap:

El mapa del sitio se utiliza para indicarle a Google, las paginas que encontrará en nuestro sitio web este archivo posee extensión .xml siendo el archivo concreto Sitemap.xml

Cuando posee extensión .html es decir, Sitemap.html es para el usuario, mediante el mismo le mostramos al visitante donde se encuentra cada página para que pueda acceder más rápido a la información.

Robots:

Por el contrario el Robots.txt es un archivo de texto, de hecho es el primer archivo visitado por Google cuando entra a nuestro sitio web.

Con este lo que hacemos es decirle a Google que paginas serán mostradas e indexadas en sus servidores para que aparezcan en los resultados de búsquedas.

Recuerda agregar tu Sitemap al Robots como puedes ver en la imagen de más abajo, por cierto si lo deseas puedes revisar nuestro Robots.txt

Sitemap y Robots

suscribete a los comentarios

0 Comments

  1. Christian Aguado

    Quisiera añadir un apunte, por si alguien se pregunta que es el crawl-delay y para que sirve.

    Este parametro sirve para reducir la frecuencia de rastreo de un bot/spider determinado.
    En ocasiones revisando las estadisticas del sitio podemos ver que aunque no es muy usual, ciertos bots se pasan de frecuencia al visitar nuestras paginas.

    Esta Practica que puedo parecer muy buena porque nos mantiene indexados rapidamente puede ser contraproducente. En alguno de nuestros clientes de pasionseo hemos tenido que modificar esos tiempos de frecuencia o espera porque machacaban literalmente la web.

    Recordemos que el bot realiza peticiones a todas las paginas de nuestro sitio, en determinadas ocasiones o en coincidencia con otros bots, puede freirnos el sitio a peticiones si no se controla adecuadamente. Y ya sabeis que en determinados entornos lso consumos de servidor so nimportantes (Como nuestro queriodo y odiado MAGENTO)

    Asi que recordar para tranquilizar a los robots: User-agent: msnbot Crawl-delay: 30 Con esto le decimos al robot de msnbot que espere 30 segundos entre cada acceso.

    NOTA: Crawl-delay puede no estar soportado por todos los crawlers. Aunque los principales como Bing y Google si lo soportan.

    Saludos y buen SEO.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *