Pierdes tráfico orgánico después de un rediseño? Aquí tienes 4 consejos

Mientras que los diseñadores y desarrolladores web a menudo son fuertes en el diseño y programación de sitios web, no todos están tan bien preparados para manejar los asuntos de SEO, sobre todo cuando el relanzamiento de los sitios web. Esta misma semana, he trabajado con tres empresas de diseño web independientes que me contactaron después de un relanzamiento sitio reciente causó una pérdida sustancial de tráfico web orgánica.

Así que, si lo que relanzó su sitio web y usted está perdiendo tráfico orgánico, ¿cómo se puede saber por dónde empezar?

Aquí está mi lista básica de los problemas más comunes que veo que a menudo se pasa por alto en un relanzamiento. Si bien puede haber muchas razones para que las pérdidas de tráfico, estas son las cuatro áreas que recomiendo consultar primero.

 

  1. Compruebe si hay un algoritmo de actualización

En primer lugar, asegúrese de que no contribuyen por error una pérdida en el tráfico a un problema relanzamiento cuando en realidad era el resultado de una actualización del algoritmo.

Si usted tuvo la desgracia de relanzar al mismo tiempo como una actualización del algoritmo, es probable que necesite para comprobar posibles problemas sospechosos de formar parte de la actualización del algoritmo, así como cuestiones relacionadas relanzamiento.

Para identificar si la pérdida es algoritmo de actualización relacionada, primero verifique si las pérdidas de tráfico orgánicos se producen por múltiples motores de búsqueda.

Si las pérdidas de tráfico (por porcentaje) son significativas sólo para un motor, entonces esto puede indicar una actualización del algoritmo. También puedes ver la página Actualización de Google algoritmo de Moz Historia y blogs como Search Engine Land para ver si los demás están discutiendo una posible actualización.

  1. Compruebe 301 redirecciones

 

Esta es una de las áreas que encuentro más pasado por alto durante un relanzamiento y, a menudo el principal culpable de la pérdida de tráfico orgánico.

Redireccionamientos 301 son como una “tarjeta de cambio de dirección” para los robots de los motores de búsqueda – que indican para los motores que la dirección URL anterior se ha movido permanentemente a una nueva URL.

Si una página web está relanzado con una nueva URL, el robot buscador aún irá a la antigua URL para indexarlo. Por ejemplo, es probable que todavía existan vínculos desde otros sitios de la antigua URL, por lo que cuando el robot buscador sigue esos vínculos, que los sigue a la antigua URL.

Sin una redirección 301 para decir a los robots en el que el nuevo URL es, los robots abandonarán tratando de indexar esa página y con el tiempo se reducirá de índice del motor de búsqueda.

Para averiguar si usted está perdiendo redirecciones 301 (o tal vez no están programadas correctamente), mira el tráfico orgánico a las diferentes páginas de su sitio, tanto antes como después del rediseño. Me suelen ejecutar un informe que muestra las páginas de entrada superior de los motores de búsqueda orgánica antes del relanzamiento y compararlo con el tráfico después de relanzamiento.

Para páginas con grandes gotas, compruebe la URL en sí introduciendo la URL en su navegador. Estabas redireccionado? Si recibió un error 404, eso es probablemente lo que los robots de los motores de búsqueda están encontrando, también.

Otro problema puede ser del tipo de redirección utilizado. Asegúrese de utilizar redirecciones 301 en este caso porque una redirección 301 le dice a los motores de búsqueda que el movimiento es permanente. Otros tipos de redirecciones, como 302s, no se deben utilizar en la mayoría de situaciones de relanzamiento.

Para comprobar para asegurarse de que la redirección es un 301, visitar un corrector de redireccionamiento, al igual que éste , e introduzca la dirección URL anterior en el cuadro.

 

  1. Compruebe La Robots.txt

El fichero robots.txt sirve como un conjunto de instrucciones para los robots de motores de búsqueda, lo que indica que las páginas de índice y cuáles evitar.

No es raro tener un robots.txt en el servidor de prueba (antes del lanzamiento del sitio web) que los robots de motores de búsqueda de bloques de la indexación de cualquiera de las páginas en el servidor de pruebas (desde el sitio todavía está siendo desarrollado y aprobado).

En ocasiones, cuando un sitio web se mueve al servidor en vivo, el robots.txt desde el servidor de prueba puede ser inadvertidamente copia en el servidor en vivo.

Si el archivo robots.txt no se actualiza para permitir a los robots de motores de búsqueda para indexar el sitio relanzado en el servidor en vivo, los motores de búsqueda no podrán visitar o ver páginas, lo que lleva a que sean removidos del índice del motor de búsqueda.

Para averiguar si robots.txt de su sitio está bloqueando los robots de motores de búsqueda, abra un navegador y escriba su dominio seguido de / robots.txt en la barra de direcciones. Esto le mostrará el archivo de robots. A continuación, busque “no permitir” en la página. Si bien es posible que desee ocultar ciertas páginas, como las páginas protegidas por contraseña, sólo estas páginas “protegidas” deberá aparecer bajo una declaración no se utilizarán.

 

  1. Revise las propias páginas

Además de bloquear los robots de motores de búsqueda a través del archivo robots.txt, páginas individuales pueden bloquear los robots a través del uso noindex en robots meta tag. Como se dijo anteriormente, con el robots.txt, puede haber razones que desea bloquear ciertas páginas de indexación de los motores de búsqueda.

Sin embargo, similar a la situación con un archivo de robots que se copian del servidor de prueba en el servidor en vivo, que he visto el mismo error cometido con páginas en el servidor de prueba que utilizan los robots meta tag copiado accidentalmente al servidor en vivo.

Compruebe la página de una etiqueta meta robots viendo el código fuente de la página. Una etiqueta meta robots se parecerá a esta:

<META NAME=”ROBOTS” content=”NOINDEX, NOFOLLOW”>

… Y que residan en el área de la cabeza de la página.

Resolver problemas de manera rápida

Independientemente de la razón de la pérdida de tráfico, una vez que encuentre el problema, asegúrese de resolverlo lo más rápido posible. Cuando los robots de motores de búsqueda no pueden encontrar páginas (o indexarlos), no tardarán en eliminarlos del índice para evitar enviar a los usuarios a páginas no válidas. Por lo tanto, actuar con rapidez para recuperar su clasificación.

Anuncios