Cómo eliminar los errores de URL que arroja el Webmasters Tools

Si utilizas la herramienta para Webmasters de Google, también conocida como Webmaster Tools estarás un poco familiarizado con los Errores de rastreo que arroja esta herramienta cuando encuentra alguna anomalía en tu sitio web.

Errores de URL no se encuentra

La aplicación web analiza diferentes aspectos, entre los cuales encontramos errores relacionados con el servidor, conectividad, DNS, robots.txt y errores de URL. Precisamente estos últimos son los que abordaremos a lo largo de estas palabras.

El error más común de URL en el Webmaster Tools es el “No se encuentra” este error es mostrado cuando el Googlebot no puede rastrear una URL de tu pagina porque esta conduce a contenido inexistente.

Por qué se da el Error

Por lo general el error de URL “No se encuentra” se presenta cuando un articulo es borrado. Es decir, Google sigue teniendo en sus servidores nuestra URL pero esta ultima ya no tiene contenido y por lo consiguiente muestra el famoso error 404, el cual por cierto te recomendamos optimizar.

Cómo solucionarlo

Bueno hemos llegado a la pregunta neurálgica y es como solucionamos estos errores. Puedo decirte que te hablamos con conocimiento de causa debido a que nuestro blog paso de tener 3.673 errores de URL no se encuentra a solo 11 en un tiempo de dos meses como puedes ver en la imagen que acompaña esta noticia.

1. Lo primero que haremos será identificar las URLs o directorios que estan generando los errores, procederemos a copiarlas y pegarlas en un bloc de notas.

2. Después procederemos a marcarlos todos como solucionados.

3. Ahora nos ubicaremos en el panel de navegación de la izquierda del Webmaster Tools en el apartado “Optimización” y en el menú desplegable seleccionamos la opción “Eliminación de URL”.

4. Antes de “Crear una nueva solicitud de eliminacióniremos a nuestro archivo robots.txt e incluiremos dentro de este archivo las URLs o directorios que borraremos por completo, es decir las URL que están dando el error.

5. Para hacer esto haremos uso del atributo Disallow, de modo que para el ejemplo si deseamos eliminar una página o un directorio seria de la siguiente manera:

Disallow:/http://www.pasionseo.com/directorio/ (Directorio)
Disallow:/http://www.pasionseo.com/category/optimizar/ (URL)

6. Las líneas de código anteriores después de modificadas con información de nuestro blog serán incluidas en nuestro Robots.txt y lo subiremos nuevamente a nuestro servidor.

7. Por ultimo, ahora si podremos solicitar en el apartado “Crear una nueva solicitud de eliminación” que las URL que bloqueamos con nuestro archivo Robots.txt sean eliminas por completo del servidor de Google.

suscribete a los comentarios

103 Comments

  1. muy buen post y digno de guardar en los marcadores!!!

    pero si tienes un blog con wordpress existe un pluging que te ayuda y mucho en la tarea bueno en realidad son dos.

    el Broken Link Checker for WordPress que lo puedes encontrar en esta pagina http://w-shadow.com/blog/2007/08/05/broken-link-checker-for-wordpress/

    y el 404 Redirected que lo puedes encontrar en esta pagina http://www.weberz.com/plugins/404-redirected/

    con estos dos plugins el trabajo de optimizar la pagina se hace menos pesado.

    espero que os sirvan

  2. cris

    creo que el disallow deberia ser asi:

    Disallow: /directorio/
    Disallow: /category/optimizar/

    creo que la barra primera que anotáis es erronea y hay que quitar el dominio

  3. cris

    Por cierto el apartado de errores de rastreo no me carga en el seguimieto de varias webs, sabéis o conocéis este problema?

    gracias y muy buen trabajo

      • Hola, tengo el siguiente problema, levante un servidor web apache sobre windows, levante una tienda en opencart, la optimize para SEO, pero tuve problemas con mi equipo alrededor de 2 o 3 semanas, google me empezo a mandar errores de “no conectividad” ya lo levante de nuevo pero no se quita el error, cuales son las posibles soluciones a esto ? les dire la ultima que eligiria cambiar mi direccion ya que tengo varias paginas o Blogs dirigidos a esta direccion http://pcalmacen.serveftp.com gracias de antemano.

        • Hola SEOADN ya elegiste la opción de solucionar problema, puede que este solucionado y google lo muestra porque no actualizado, escoge error solucionado para ver si te lo vuelve a mostrar.

  4. Pingback: Utiliza Optimizely para hacer pruebas A/B de tu Blog | Pasión SEO | Aprende SEO gratis

  5. Manuel

    Muy buena explicación klever, la he seguido al pie de la letra y espero me de resultados, tengo unos 1600 errores.

    Lo unico que no me queda claro, porque estoy bastante verde en esto es la ultima parte, el punto 7, imagino que no habrá que crear una solicitud de eliminación de los 1600 errores, url a url, imagino que haciendo una unica solicitud, google accederá al robots.txt y vera todos los disallow.

    Muchas gracias por tu articulo.

  6. Hola, en mi caso, tengo el problema de que en la página de SEO WORKERS, en el apartado de URLs found in the page, me aparecen 147 urls, y me dicen que las páginas con más de 100 las ignoran. Pero el tema es que mi blog no tiene tantísimas urls. Alguien sabe donde puede estar el problema. Muchas Gracias

  7. Pingback: Las notificaciones sobre Spam de WMT perjudican su SEO | Pasión SEO | Aprende SEO gratis

  8. juan gomez

    Hola Kleber, yo tengo un blog en wordpress y tengo un problema con las url de paginacion misiti.com/page/2/? – misiti.com/page/3/? y bueno otras mas.

    Como puedo solucionar este problema o quien mu puedad ayuda con esto, Gracias !

    • Hola Juan, el problema es mostrado en el WMT como un error 404 cierto?, utilizas plugin para la paginacion? en todo caso verifica que el máximo de post que muestra tu theme coincide con los configurados en el apartado de “ajustes” desplegable “lectura” del escritorio de administración de wordpress

  9. Hola ,estuve leyendo tu post, pero no entendi lo de archivo robots.

    Veras te explico por si me puedes ayudar, ya que los errores me van en aumento por dia. errores 404

    La mayoria de las url son titulopost/category/nombrecategoria.

    Todo esto ha sido de instalar el wordpress seo by yoast. Antes tenia el all in one seo pack y no tenia problemas.

    ¿que puedo hacer? Porque definitivamente he vuelto a dejar el all in one seo, como lo tengo configurado para otro blog en el cual no he tenido esos problemas.

    Si me puedes aconsejar, te lo agradecería, pero teniendo en cuenta que dejaré el all in one seo, el otro es muy complicado.

    Muchas gracias

  10. Leonardo

    Yo tonto, pregunto… y Google no tiene el site map para fijarse cuales son las páginas del sitio ? y dar de baja automáticamente lo que no está en el sitemap ?

  11. Leonardo

    Otro comentario, tengo 89 errores 404, para darlos de baja hay que cargar una a una las direcciones ??? pobrecito el que tiene 1600 !!

  12. Pingback: Matt Cutts: Cómo saber si un sitio web fue afectado por el algoritmo de Google

  13. muchas gracias por el artículo, me ha sido de gran ayuda. Por cierto,para hacerlo más rápido he hecho lo siguiente:
    1) descargar la lista de errores en excel como CVS (te salen en una columna)
    2) poner en una columna a la izquierda: Disallow:http://www.tudominio.com y rellenar todas la filas
    3) usar la función Concatenar de excel para unir la URL de tu dominio con el error
    4) cipiar y pegar valores en la misma columna para que quede en formato texto sin fórmula
    4) copiar y pegar en robots
    saludos

  14. Andaba buscando y buscando como poder solucionar eso de los errores 404, hice un análisis de la página y me arrojó varios de estos errores. Seguiré las indicaciones que nos compartes
    Gracias!

  15. Joder, yo solo he dado en “marcar como solucionados”, pero no he llegado a sacar la lista de las paginas de error ;(

    Joo ahora se supone que debo esperar a que vuelvan a aparecer? o es que ya google los dara como borradas al ver que no existen esas paginas, ademas de que esas paginas ya no tienen ningun enlace entrante.

    Saludos.

  16. PasionSEO
    Author

    Hola amigo es más tedioso cuando son 1000 URLs desde el webmasters tools puedes exportar la lista de errores en un archivo de hoja de calculo.

    Pero para pedir la eliminación de la URL la solicitud se hace una por una 🙁 Aunque es raro que tengas tantos errores, si son 404 no tienes porque preocuparte tanto.

  17. Crees que los errores 404 influyen en el posicionamiento google… ?
    yo personalmente creo que si porque tengo la pagina con errores y el resto bastante bien y no hay manera de posicionar tengo 676 errores
    404…

    • PasionSEO
      Author

      Hola teresa los errores 404 influyen el SEO, ya que cuando una URL tuya se encuentran en las primeras posiciones de Google pero no tiene información o esta ya no existe estas ofreciendo una mala experiencia de navegación al usuario y por ello google sube a otro sitio web, el mismo caso aplica para los sitios web que permanecen offline por más de 72 horas.

  18. Lucia

    Hola Klever, soy nueva en esto y mi tengo un problema bastante gordo porque subi una nueva version de una web y muchas paginas de la anterior web ya no existen. En GWT me pone que tengo 400 errores de rastreo, pero al mirar desde donde estan enlazadas estas páginas, la mayoria son de enlaces externos, y mi pregunta es como hago para solucionar esto, si hago lo que dices en tu post tendria enlaces rotos despues, como hago para solucionar esto. Me preocupan los enlaces rotos, son muchas las paginas que tienen enlaces hacia paginas que ya no existen en mi. Porfa espero tu respuesta.

    • PasionSEO
      Author

      Hola lucia personalmente no entendí muy bien tu problema. presumo que tienes una pagina web que posee un nuevo diseño o realizaste algun cambio el cual afecto tus paginas, y muchas de estas se encuentran con enlaces externos. al visitar esos enlaces reciben respuesta 404 porque no estan.

      la solución para no afectar el seo es crear esas urls que están eliminadas pero solo las más relevantes, posteriormente las redireccionas con 301 al home. asi aprovechas el enlace si lo deseas opcionalmente tambien puedes excluir las urls para que google no las indexe esto puedes hacerlo desde el robots o desde el webmaster tools en el apartado de desindexacion de urls.

  19. Hola Lucia, la solucion es facil, tienes que eliminar esos enlaces rotos que salen de tu web,
    edita tu contenido y elimina esos enlaces externos, deberia profundizar mas a fondo en tu site, pero te recomendaria que no enlazaras tanto con enlaces externos que no puedes controlar y llenes de contenido unico y original tu sitio para realizar mas enlaces internos, los cuales si podras controlar.

    Un saludo Lucia

  20. katy

    Hola quería que me ayuden a resolver algunas dudas, gracias.
    – después de poner todos los links en la robots.txt como Disallow y enviar todos esos links para su eliminación y que ya lo haya eliminado (así dice cuando voy a la pestaña “Eliminanacion de URL”, que ya esta eliminado) la pregunta es ¿cuando puedo sacar las URLs del robots ya que son bastantes y como comprobar que los elimino?
    – ¿esa misma técnica debo aplicar para limpiar una URL por completo?…. aplique la misma técnica ya casi un mes con una Web que tenia (quiero limpiarlo por completo) pero me aparece Total indexados 1262 (eso es en la pestaña “Estado de indexacion” del Webmaster tools Google).

    • PasionSEO
      Author

      Hola Katy como estas, frente a la primera basta con que los tengas alrededor de un mes no es necesario más tiempo. En cuanto al estado de indexacion si le solicitar a Google la desindexacion completa un dominio no tienes que copiar tantas urls, si es una url concreta bastára con digitarla. Lo mismo se aplica para url con directorios por ejemplo sitio.com/etiqueta con eso le indicas al buscador que desindexe todo lo que ese encuentra en /etiqueta

      Saludos, espero tu respuesta para poder ayudarte mejor. Si lo deseas puedes escribirnos a ayuda[arroba]pasionseo.com

    • hola Katy como dijo mi compañero, solo sera necesario que mantengas las urls en el robots alrededor de un mes, el tiempo suficiente para que google te visite y gestione las peticiones.

      Cualquier cosa ya sabes.

      Saludos

  21. Jorche

    El archivo robots.txt se puede cambiar desde webmasterstools con el que se muestra en Rastreo -> Probador de robots.txt ?? O tiene que ser el archivo original?

    • PasionSEO
      Author

      Hola Jorge el archivo robots.txt solo puedes modificarlo directamente desde tu servidor, desde el Webmaster Tools lo que puedes hacer es comprobar que Google esta rastreando bien tu archivo (probador). debes modificar el original.

      Saludos

  22. Diego

    Hola, antes que nada muchas gracias explicas muy bien!!
    Solo que tengo una gran duda a mi me marca 2 errores 404 leves
    /?s=%7Bsearch_term%7D
    /search/%7Bsearch_term%7D/
    esa es la terminacion que me aparece en el archivo de excel de los errores..
    Estos tambien se deben de poner en el robot.txt?
    y tambien me aparecen 2 que dicen:
    categoria bloqueada, plataforma smartphone
    /2014/09/16/hello-world/
    /2014/09/
    estos tambien los tendria que incluir en el robot.txt
    Muchas gracias por compartirnos tus conocimientos..
    saludos!

    • PasionSEO
      Author

      Hola Diego como estas, si esas URLs debes colocarlas en el archivo robots.txt como explica el post y posteriormente si solicitar la eliminación del error.

      Saludos y me alegro la información te sea de ayuda.

  23. Hola, yo solo quiero eliminar una url pero con el ejemplo de tu post no me queda claro.

    Si yo escribo: Disallow: /http://xxxxx.com/xx-xxx-xxx-xxxx/ porque no lo tengo en ningun directorio ya que lo elimine para tener webs mas amigables, ¿estaria bien asi?

    ¿Y porque tengo que indicarlo en el robot si ya lo estoy solicitando en eliminacion de url?

    • PasionSEO
      Author

      Hola ivan se indica en el robots.txt para demostrar propiedad sobre el dominio, al igual que al solicitarlo desde la eliminacion de url aun cuando en primer momento verificaste el WMT.

      En cuanto a tu pregunta no entendí muy bien tu ejemplo

  24. Supongo que lo indicarselo al robot sera temporal hasta que google lo elimine de su directorio pero al tener un plugin que redirecciona los errores 404 a a pagina de inicio de mi web no lo veo necesario.

    ¿es correcto?

    • PasionSEO
      Author

      hola Ivan, si es necesario porque solo estas redireccionando no estas eliminando dichos errores 404, usar un plugin para esas tareas es una buena opcion aunque en mi caso personal opto por optimizar la pagina de error (404) y eliminar en lo posible dichos resultados.

      Saludos

  25. Como siempre nos das muy buena información, pero pienso, ¿no sería mejor hacer un redireccionamiento 301?, de esta forma no tenemos que eliminar URL y otra ¿Le gusta a google que eliminemos URLs de nuestro dominio?, yo pienso que no ( ha llevado sus robots a nuestra web y ahora le decimos que deshaga su trabajo) ¿que piensas???

    Un saludo y Gracias¡¡¡

  26. Mar

    Hola,
    Primero de todo darte las gracias por esta solución 🙂
    Tengo una duda, tengo errores 404 de páginas que he borrado y que gracias a tu post ya se como solucionar. Pero me salen errores 404 porqué Googlebot cuando indexa repite el dominio al final del link, como este: http://expofarm.es/tableros-nocturnos-y-dispensadores/www.expofarm.es

    Sabéis porque hace esto? y sabéis como se puede solucionar? cada página nueva que creo hace dos versiones la correcta y la que repite el dominio y da error 404.

    Muchas gracias

    MAr

  27. Hola mar, quizás tienes un problema con tu gestor de contenidos o CMS, si estas utilizando wordpress comprueba que en el apartado de creación de la url esta correctamente configurado. Incluso si hace falta cambia la configuración expresamente para luego ponerla nuevamente, de esta forma regenerarías todas las opciones.

  28. noll

    Hola para agregar una url esta bien colocarlas asi

    Disallow: /http://xxxxx.com/xx-xxx-xxx-xxxx/
    Disallow:/http://xxxxx.com/xx-xxx-xxx-xxxx/

    De las 2 formas esta correcto ? o no ahy que dejar el espacio entre disallow y laurl?

    saludos

  29. Hola tengo un problema como el que describes pero algunas cosas asumo que han cambiado porque ya no veo el apartado de Optimización.
    Me sale como problema este: Google no ha podido acceder a tu sitio a causa de un error de DNS
    Y en ERRORES DE RASTREO al darle OBTENER Y PROCESAR me salen enlaces que no tengo o directorios que tengo pero que jamas subí.
    Primero me marca: Completada Parcialmente al revisarlo me sale que no puede acceder a un script que addthis.com, obviamente es un script que no controlo yo y tiene su propio robot que no permite el acceso.

    Luego el directorio: http://www.octopusperu.com/ocp/css/style.css que en mi host no existe como tal, pero si existe http://www.octopusperu.com/css/style.css osea sin el ocp.

    Luego me marca esta hoja de estilo que no existe: http://www.octopusperu.com/index.html//octopusperu.com/wp-content/themes/octopusperu/assets/css/icons.data.svg.css . Este directorio no existe al menos no lo veo en mi root pero de alguna forma extraña aparece dentro de mi web.

    http://www.octopusperu.com/wp-admin/admin-ajax8560.php?action=wordfence_logHuman&hid=143AEB10867BE11747906041A2469880&r=0.16598502290435135

    No tengo este directorio pero lo tengo como un script pero no tiene : &r=0.16598502290435135

    Espero me puedas ayudar.

  30. Hay diferentes errores muy diferentes, en primer lugar yo realizaría nuevamente la asociación con webmaster tools o mejor dicho con su nuevo nombre “google search console” recuerda también de tener de forma correcta tu sitemap.xml y que aconsejamos incorporar un plugin de redireccionamiento o utilizar el htaccess.

  31. Hola
    Estoy reparando errores en mis Herrramientas de webmaster, del tipo meta descripciones cortas.
    Lo arreglo, subo el sitemap, pero me sigue saliendo en error en Herramientas de webmaster.

    ¿Eso es normal? ¿Tengo que corregir yo el error una vez reparado y marcarlo como bueno o con subir sitemaps se debería de cambiar solo?

  32. Hola Insigpol, que tipo de errores tienes? Son de URL? recuerda que una forma sencilla de recuperar este tipo de errores es redireccionarlos todos a la home, si tienes WP te recomiendo este plugin https://wordpress.org/plugins/all-404-redirect-to-homepage/ sino puedes realizarlo manualmente con el htaccess e incluso redireccionarlo en lugar de a la home, a las secciones mas especificas para cada URL con error. El sitemap ayudara a que google examine correctamente toda la web y llegue a todos los sitios de forma correcta, el sitemal es indespensable para webs grandes pero muy recomendable para todas las webs. Si crees que solucionaste los errores y redireccionaste las direcciones como te comente, marcalo como solucionado para que google cuando vuelva a examinar el site aparezca todo correcto.

    Un saludo y buen SEO 🙂

  33. HOla,
    Tengo la web http://www.insigniaspoliciales.com
    Tenía muchas metadescrpciones duplicadas y cortas, y también etiquetas de titulo duplicadas.
    Lo reparo manualmente, y en lugar de mejorarlo, me suben los errores.
    Contrato a un técnico, entra en Parametros de URL, hace cietos camibos (como quitar las duplicadas que eran pg) y en unos días, vuelven a subir los errores.
    Me dice el técnico que hizo los camibos que con una semana no basta, que tarda más tiempo en verse los cambios. Pero lo que yo se es que despues de él hacer estos cambios y yo subir la web otra vez, a los pocos días la cosa ha empeorado. ¿Alguien entienda algo?

    Mejoras de HTML Última actualización 19 oct. 2015

    Si solucionas las incidencias que se indican a continuación, puedes mejorar el rendimiento y la experiencia del usuario de tu sitio.
    Metadescripción páginas
    Metadescripciones duplicadas 1.866
    Metadescripciones largas 0
    Metadescripciones cortas 1.788

    Etiqueta de título páginas
    Etiquetas de título ausentes 8
    Etiquetas de título duplicadas 1.887
    Etiquetas de título largo 0
    Etiquetas de título corto 0
    Etiquetas de título no informativas 0

    Contenido no indexable páginas
    No hemos detectado ningún problema con el contenido de su sitio que no se puede indexar.

  34. Muy buenas Insigpol vaya descontrol tienes, acabo de inspeccionar brevemente tu web, y efectivamente los títulos y descripciones están correctas, lo que si te recomendaría es optimizar el tema de las cabeceras H1, H2 etc… aspecto muy importante que optimizado adecuadamente te ayudara a posicionar.

    Pero vamos al lio, si que es cierto que en ocasiones al realizar los cambios google demora un poco en arrojar sus resultados, supongo y espero que estarás monitorizando todo esto con las webmaster tools o Google Search Console como se llaman ahora y que tengas cada una de esas paginas de error redireccionadas adecuadamente desde el htaccess.

    Veo que utilizas zen cart desconozco si tendrá algún script o plugin como en WordPress para solucionar esto de una forma rápida, existe el plugin all-404-redirect para redireccionar todos esos errores a la home y olvidarte de problemas. Revisa estos problemas y comentanos. 🙂

    Aprovecho para recomendarte que optimices el tema de las urls ya que en la actualidad su construcción no es amigable.
    Tienes que evitar este tipo de link en tu web: http://xxxxxxxx.com/imA1n-zapadores-xxii-p-7108.html?cPath=168_234_238

    Una recomendación mas, utiliza “screaming frog”, es gratuito y podrás inspeccionar todo estos datos de una forma muy sencilla y eficaz

    Un saludo y buen SEO

  35. Christian, efectivamente nos han puesto una reedirección como mencionas.
    Además nos han hecho esto:

    Parámetros de URL
    Ayuda a Google a rastrear tu sitio con mayor eficacia indicando cómo se deben gestionar los parámetros de tus URL. Más información
    Utiliza esta función únicamente si conoces bien el funcionamiento de los parámetros. Si excluyes URL erróneamente, podrían desaparecer muchas páginas de los resultados de búsqueda.
    Mostrar
    1-21 de 21
    Parámetro URL supervisadas Última configuración Efecto Rastreo
    language 215.500 – – Dejar que el robot de Google decida Editar / Restablecer
    page 150.712 – – Dejar que el robot de Google decida Editar / Restablecer
    sort 126.978 17 oct. 2015 Ordena el contenido. Dejar que el robot de Google decida Editar / Restablecer
    view 94.149 – – Dejar que el robot de Google decida Editar / Restablecer
    cPath 84.764 19 oct. 2015 Nada URL representativa Editar / Restablecer
    disp_order 30.879 17 oct. 2015 Ordena el contenido. Dejar que el robot de Google decida Editar / Restablecer
    pg 18.041 16 oct. 2015 Nada URL representativa Editar / Restablecer
    action 10.044 – – Dejar que el robot de Google decida Editar /

    Lo que dices de hacer amigable las urls tienes razón pero, ¿Como se hace eso en zencart? El problema de zencart es que apenas hay tutoriales como si las hay en Prestashop. No se como hacerlo.

  36. Manú

    Tengo un inconveniente elimine en search console las paginas que daban error 404 o que no se encontraban,, porque ya habían sido eliminadas anteriormente porque eran de la demo de un tema,,,ahora no aparece mi pagina web en el buscador de Google, como puedo solucionar este problema?

    • Supongo que te refieres a redireccionar tus paginas anteriores que fueron indexadas a las nuevas, para ello tienes que utilizar .htaccess pero eso no seria un 404 sino un 301, como exactamente desconozco que quieres hacer exactamente te doy todas las opciones:

      Para redireccionar un 404: Solo deberías añadir esta linea al htaccess
      ErrorDocument 404 /error/404.html y crear ese 404.html indicando el error que quieres mostrar. Aunque yo para estos casos si utilizas wordpress te recomendaría utilizar un plugin, este es el plugin: https://wordpress.org/plugins/all-404-redirect-to-homepage/ De esta forma todos tus errores 404 los redireccioanra a la home.

      Para los 301 esas paginas que tienes indexadas si las quieres redireccionar a las paginas buenas, tendrás que utilizar el htaccess también pero de la siguiente forma:

      Redirect 301 /pagina-vieja http://www.example-seo.com/nueva-pagina

      Fíjate en que la URL vieja no incluye el dominio y la nueva sí. La ventaja de esta sintaxis es que puedras mover la página no sólo dentro de tu dominio, sino hacia hacia direcciones de fuera de tu web.

      Espero Solucionar tu duda

  37. Lucas

    Perdon la ignorancia pero no entiendo
    A que llaman
    Directorio y despues a la url
    Yo tengo la pagina principal index y otras por ej http://www.a.com.ar/pagina1.php
    Que debo poner cuando es la pagina1.html la que genera el error
    Disallow:/http://www.pasionseo.com/directorio/ (Directorio)
    Disallow:/http://www.pasionseo.com/category/optimizar/ (URL)
    Gracias!
    Aprendiebdo a los ponchasos

    • Hola Lucas, no tienes que disculparte por preguntar, cuando nos referimos a directorio no referimos a la agrupación de paginas contenidas en una url de este tipo, http://www.midominio.com/articulos/ todo lo que este dentro de /articulos/ seria desindexado. De esta forma si son muchos enlaces no tenemos que ir uno por uno, si de lo contrario como comentas en tu caso es un único enlace, solo indica ese enlace. Recuerda aqui estamos para ayudarte, feliz SEO.

  38. CyC

    Muy bien explicado por pasos. Tengo curiosidad en saber si es necesario comunicar a través de WebmasterTools que el error está solucionado o es algo automático una vez solicitas que desindexen la url.

    • Recuerda que ahora lo que se llamaba webmaster tools se denomina, “search console”, y nuestra recomendación al respecto es que marques como solucionados todos esos errores. Piensa que google cada vez mas optimiza sus esfuerzos y de esta forma al marcarlo, pasara nuevamente el motor de indexación para comprobar que todo esta correcto más rapidamente.

  39. Estimado gracias por el post. pero sigo con un problema.
    Una vez ingresando el archivo robots con todos los disallow de paginas con error que me indico search console . como se envia el listado de todas las url que google tendra que eliminar ??
    solo existe la opcion de enviar una de cada vez, y en mi caso tengo 5.000 url con error .
    gracias

    • Hola Renata que no cunda el pánico, 5000 urls son muchas urls, que hicisteis para tener ese problema? modificasteis toda la web? me faltan datos por conocer tu proyecto, pero lo ideal en estos casos es no hacer un disallow de todas las urls porque estas perdiendo la fuerza de algunas de tus paginas mas fuertes, porque no realizas una redireccion desde htaccess??, te pongo un ejemplo:
      redirect 301 /url-antigua.html http://www.tupagina.com/url-nueva/
      Una vez realizadas las redirecciones de las paginas mas fuertes redirecciona el resto a la home y marca en search console todos los errores 404 como solucionados y listo ya no te apareceran. 🙂

      Como redireccionar el resto de paginas a la home, desde el propio htaccess puedes hacerlo pero para que sea mas facil tienes un plugin aqui https://es.wordpress.org/plugins/redirection/ desde el cual te hace ese funcion automaticamente.

  40. juana

    hola Christian, me quede en l paso (3) no ecuentro esta parte “Optimización” y en el menú desplegable seleccionamos la opción “Eliminación de URL”. encontre en mi pagina 1245 errores indicando que NO SE ENCUENTRA me podrias ayudar por favor, gracias

    • Hola Juana, eso es porque google actualizo webmaster tools, ahora se llama search consolo, la opción que buscas se encuentra ahora en: “rastreo” – “errores de rastreo”, recuerda que antes de marcar los errores como “marcar como solucionados” deberas redireccionar esos enlaces inexistentes a sus nuevas ubicaciones o a la home desde .htaccess.

  41. abel ceja

    hola bro , pero seria una lata copiar una url por url se me cansia la mano , , como sacar las url si son 2000 url como las zacarías todas de una , ? gracias

  42. Rocío Alvarez

    Tengo una web que tiene contenido duplicado . Lo he eliminado pero sigue en mejoras html de search console. Hay alguna manera de “ponerlo a cero” .

  43. Carmen

    Hola buenas,
    Muy buen aporte, a mi me ha funcionado a las mil maravillas en prestashop, lo que tengo una duda, he conseguido eliminar casi todos los 404, pero los errores que me da en “mejoras de Html” las paginas de duplicidad de titulo y descripción, no consigo bajarlas, ya se que google va con calma y tarda un poco pero, ¿se pueden bloquear las malas en el robot y eliminarlas según se explica aquí, aún estando redireccionas a 301?
    ej: tengo tengo 3 paginas malas que me redirigen a 1 buena (todas ellas con duplicidad de descripcion y titulo) , bloqueo y elimino las malas? o no se puede no siendo que me bloquee alguna pagina y no me la indexe… Un saludo

    • Hola Carmen, te recomendaria que seas un poco paciente ya que si entiendo bien por lo que dices si las bloqueas google no podra “eliminarlas”, si tienes realizadas las modificaciones deja que google haga su curso y veras que poco a poco ira reduciendo sigmificativo ese numero de errores 🙂
      Recuerda si las bloqueas desde el robots, no se seran indexadas!!

  44. Christian

    Hola buen día, tengo un problema que me gustaría que me ayuden a solucionar.
    Hace poco estuve reestructurizando mi website, los cuales he cambiado los nombres a algunas urls, por ejemplo antes era: http://www.ejemploweb.com/hola-mundo y ahora http://www.ejemploweb.com/hola-mundo-cambio, pero la url anterior (www.ejemploweb.com/hola-mundo) aun me sigue saliendo en los buscadores de google cuando hago site:www.ejemploweb.com y tambien me parece como duplicado en algunos metas descripciones, no se si estaría bien redireccionar en el .htaccess la url antigua a la nueva y como lo podria solucionar, si hago seguirá apareciendo en los resultados de búsqueda la url antigua pero redireccionando a la nueva (www.ejemploweb.com/hola-mundo-cambio). Que me recomendarían realizar.

    Gracias

    • Hola Chritian, no te preocupes normalmente la pgina no desaparece inmediatamente del indice de google, incluso hay paginas webs que caducaron y durante un breve espacio de tiempo siguen mostrando toda su estructura. Lo que tienes que hacer es:

      1- Asegurarte bien que eliminaste tu pagina antigua
      2- Redireccionar como bien mencionas desde htaccess, desde la pagina antigua a la nueva.
      Te pongo un ejemplo:

      Redirect 301 /pagina_antigua.html http://tusitio.com/pagina_nueva.html

      3- Luego utiliza este programa SCREAMING FROG SEO SPIDER https://www.screamingfrog.co.uk/seo-spider/ para verificar toda tu estructura web. Metas y titulos incluidos.

      Espero ayudarte con tu problema.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *