3 Recomendaciones SEO básicas según Google

El pasado 10 de enero de 2019, Google publicaba en su página oficial “Think with Google” un artículo llamado “3 ways we think about SEO” donde habla de tres acciones especiales que han desarrollado en algunos de sus productos durante el pasado año para mejorar su rendimiento.

Para cualquier sitio web, el crear una estrategia sostenible que promueva un crecimiento orgánico debería ser clave, y el SEO, es otra rama más que puede ayudar a conseguirlo.

Por ello, y para mejorar día a día ese trabajo de posicionamiento, es importantísimo estar al tanto de las últimas actualizaciones de los diferentes motores de búsqueda, no sólo de Google (aunque en España represente prácticamente la totalidad de las búsquedas).

En el artículo que comentaba al inicio, Google afirma que:

Cuando se trata de cómo aparecen los sitios de Google en la búsqueda, reciben el mismo tratamiento que cualquier otro sitio en la web, y nuestros equipos siguen las mismas pautas externas proporcionadas a los webmasters.

Con las mismas pautas externas, se refiere básicamente a los Fundamentos de la Web que actualmente se pueden consultar en la web para desarrolladores de Google. También se mencionan otros recursos como la Guía de optimización en buscadores (SEO) para principiantes.

A continuación se detallan las tres acciones básicas que llevaron a cabo:

Canonicalización de urls

El primer punto básico del que hacen referencia es el de cómo mostrar a los motores de búsqueda qué URL indexar mediante la implementación de canonicals.

Toman como ejemplo su web de Google My Business donde se aprecia el uso que hacen de los canonicals para urls parametrizadas por ejemplo.

Desde la opción del Inspector de Urls dentro de Search Console se puede analizar en mayor detalle cómo Google ve una determinada url en términos de rastreo, indexación y su url canonical elegida por Google.

Uso de AMP y PWA

Teniendo en cuenta que más del 50% del tráfico de los sitios web procede de dispositivos móviles, es interesante evaluar el desarrollo de tecnologías como AMP o Progressive Web Apps que tratan de optimizar el rendimiento y consumo del contenido para móviles. Sin embargo, es cierto que la implementación, y sobre todo el mantenimiento de las mismas, supone un coste elevado.

Además de éstas tecnologías, Google habla en la nota de que se han centrado en mejorar la experiencia del usuario corrigiendo errores de la Consola de búsqueda de Google, implementando datos estructurados y agregando AMP a determinado contenido de su sitio Think with Google.

Evitar duplicados

Atendiendo a la complejidad de toda la estrategia de marketing que Google sigue a nivel mundial, es claro, que en muchas ocasiones determinados dominios y contenidos se duplican incluso para un mismo país.

Por ello, decidieron trabajar en consolidar toda esa información siguiendo sus recomendaciones sobre contenido duplicado.

El contenido duplicado no sólo es confuso para los usuarios, sino también para los motores de búsqueda. Crear un gran sitio en lugar de múltiples micrositios es la mejor manera de fomentar el crecimiento orgánico a lo largo del tiempo.

En resumen, se trata de adaptar continuamente nuestras estrategias al entorno cambiante.

Qué es el Inspector de Urls de Google Search Console BETA

Google anunció el pasado 25 de junio de 2018 una nueva opción en la herramienta de Search Console llamada “Inspección de URLs”.

Ésta nueva opción permite entre otras cosas, obtener un mayor detalle de cómo Google ve una determinada url en términos de rastreo, indexación e información servida de esa página en sus resultados de búsqueda.

Qué información muestra

  • Si la url está o no incluida en el índice de Google (otra forma de asegurarte de si la url está indexada o no es con el comando site:url dentro del buscador).
  • La fecha del último rastreo de esa url
  • Comprobar si tiene errores de AMP o de datos estructurados.
  • Información sobre la url canonical (o de referencia para Google) de esa página

Cómo utilizar la herramienta

Simplemente tienes que introducir la url que quieras analizar bajo la caja de checking teniendo en cuenta que:

  • La url tiene que pertenecer a la propiedad de la que estás consultando en Search Console.
  • Puedes consultar urls AMP y no AMP.
  • Puedes analizar urls que tengan implementados href lang, y la información que la herramienta ofrece será la relacionada con su versión canonical.
  • En el análisis Google no tiene en cuenta acciones manuales o urls eliminadas temporalmente, por lo que puede ser que aparezca como indexada cuando por las acciones anteriores es posible que no lo esté.

Qué podemos sacar en conclusión

Problemas de canonicalización entre urls así como con las duplicadas.

Por ahora Google no contempla lanzar la API de esta nueva funcionalidad, ya que primero se quieren asegurar que realmente es una opción válida.

Más información: Herramienta de inspección de URLs

Google: El papel de la publicidad entre el SEO y la Experiencia de Usuario

El pasado 1 de junio de 2017, Google comunicaba sus intenciones acerca de la publicidad en los sitios web y su actualización de Chrome a través de su post titulado “Mejorando la publicidad en la web“.

En este post se menciona el estudio impulsado por el usuario sobre los formatos de publicidad que llevan a estos a activar los diferentes ad-blockers (sobre un 30% más que respecto al año 2016) para no empeorar su experiencia de consumo. Esta investigación realizada por la Coalición para mejores anuncios en la creación de los estándares Better Ads describe algunas de estas experiencias: anuncios intersticiales de página completa, anuncios que reproducen sonido inesperadamente y los anuncios intermitentes. De ese estudio se sacó también la conclusión, que no todos los anuncios son mal vistos por los usuarios, y es que por ejemplo, el 85% de los usuarios móviles dijeron que encontraron anuncios ancla (que se adhieren a la parte inferior de la pantalla a medida que se desplaza) solo un poco molestos o no molestos en absoluto. 

Con esa intención por parte de Google por mejorar la experiencia de usuario a través de un formato de publicidad permisivo (y que no ponga en peligro el ecosistema web de ingresos publicitarios), el buscador a través de Chrome dejará de mostrar anuncios (incluidos aquellos que pertenecen o son servidos por Google) en sitios web que no cumplan con los Estándares de mejores anuncios a partir de febrero de 2018 donde activará su propio ad-blocker.

Como herramienta de ayuda, Google ha creado una nueva funcionalidad dentro de la herramienta para desarrolladores y webmasters, Search Console, que permitirá comprobar si las experiencias de anuncio de tu sitio web incumplen los estándares Better Ads.

Desde el punto de vista de los publishers que ofrecen este tipo de anuncios, Google ofrece a los editores con buenas experiencias publicitarias a pagar por su trabajo. Con Opciones de financiación (por ahora en beta) los editores pueden mostrar un mensaje personalizado a los visitantes que utilizan un bloqueador de anuncios, invitándolos a habilitar anuncios en su sitio o pagar un pase que elimina todos los anuncios en ese sitio a través del nuevo Google Contributor.

¿Cómo comprobar si los anuncios de mi sitio cumplen o no los estándares de calidad?

Desde el panel de Search Console -> “Web Tools“, se puede acceder a las funciones de “Informe de experiencia de usuario” dividido entre dispositivos móviles y ordenadores.

En el siguiente vídeo publicado por Google desde su cuenta de “Google Webmasters” puedes verlo todo lo anteriormente explicado de forma visual.


Después de haber comprobado si tu sitio web presenta alguna de esas experiencias e identificar los posibles problemas que tendrías que solucionar, puedes pedir una revisión del sitio.

Para saber si tu sitio web se he revisado, haz clic en Ordenador o Móvil y consulta el informe correspondiente.

“SEO Snippets”, nueva serie de vídeos de Google para Webmasters

Con el objetivo de conseguir que los webmasters y propietarios de los sitios web mejoren el rendimiento de sus sitios, Google lanzó el pasado 21 de diciembre de 2017, una serie de vídeos cortos en su canal de Youtube Google Webmasters titulado “Bienvenido a los SEO Snippets” y presentados por John Mueller (Webmaster Trends Analytics en Google). Anteriormente Matt Cutts (antiguo director del departamento contra el spam en la web, de Google) era el encargado de publicar vídeos cortos respondiendo a preguntas que enviaban algunos webmasters, como por ejemplo: “¿Las páginas de redes sociales rankean de forma diferente?“.

Recientemente actualizó su Guía de optimización en buscadores (SEO) para principiantes con el mismo objetivo.

La idea de esta serie de vídeos cortos, es responder a preguntas concretas (con soluciones específicas) que se hacen con mucha frecuencia en el foro de ayuda de webmasters muchos SEOs y propietarios de sitios web.

Estos son los vídeos y resumen de cada uno:

¿La regla del crawl-delay es ignorada por Googlebot?

La idea del crawl-delay para el archivo robots.txt, fue introducido anteriormente por otros buscadores como Yahoo!, Bing, Yandex. etc. para que el webmaster pudiera especificar cuántos segundos un rastreador o crawler esperaría entre peticiones con el objetivo de balancear el límite de carga del servidor web. Teniendo en cuenta que los servidores son bastante dinámicos, no parece tener mucho sentido esa idea. Por tanto, en lugar de la directiva crawl-delay, decidieron automáticamente ajustar sus rastreos en función de cómo los servidores son capaces de reaccionar para cada caso particular del sitio en cuestión.

Desde la herramienta de Search Console, en “Configuración del sitio“, puedes limitar la frecuencia de rastreo de Google.

Subdominio o directorio, ¿cuál es mejor para SEO?

Aclaran que cualquiera de las dos formas es correcta para Google, sólo que hacer cambios en la estructura de urls de tu sitio, puede llevar un poco más tiempo a que Google entienda esa nueva relación y otorge el peso correspondiente a cada enlace. Por tanto, recomiendan escoger cualquiera de las dos opciones, siempre y cuando se mantengan bajo una estrategia de largo plazo, y no se hagan cambios de urls de forma frecuente.

En el caso de elegir subdominios, se recomienda “Verificar” la propiedad en Search Console para poder hacer una monitorización y seguimiento de estadísticas en cuanto a rendimiento del sitio, accesibilidad de los rastreadores, etc. Si escoges carpetas o directorios, puedes también verificar ese path concreto en la herramienta y sacar datos en particular.

La template de mi sitio tiene varias etiquetas H1, ¿supone un problema?

Las etiquetas H1 son utilizadas comúnmente para marcar el encabezado de una página. Con HTML5 afirman que es habitual tener varios elementos H1 separados para diferentes partes de una página. Si utilizas una template en HTML5 tus páginas tendrán un uso correcto de usar múltiples H1 en la cabecera automáticamente.

En cualquier caso, afirman que tanto si utilizas HTML5 como no, el tener varios H1 en una página, si están bien marcados, no hay problema.

¿Cómo puedo recuperar el control de una propiedad en Google Search Console?

Quizás te hayas preguntado cómo puedes recuperar el control al acceso de tu cuenta de Search Console (antigua Webmaster Tools) si no recuerdas cuál era la cuenta que usaste anteriormente o que no consigas volver a esa cuenta.

Pues bien, puedes por ejemplo crear una nueva cuenta -> verificar su propiedad y volver a trabajar en poco tiempo. Una vez verificada, tendrás acceso a toda la información que recoge la herramienta. También puedes hacer una lista con los otros propietarios verificados y tal vez detectar esas cuentas previas o ver qué tipo de acceso puedes eliminar.

¿Las penalizaciones corregidas afectan al SEO?

Las acciones manuales (que se pueden ver en Search Console) enviadas por el equipo de de webspam de Google y corregidas por el propietario del sitio afectado, una vez que se ha enviado la solicitud de reconsideración, ¿es suficiente para “sanar” tu sitio o es necesario algún paso más?.

Una vez se ha corregido la infracción y realizado esa solicitud, es suficiente para que el equipo de webspam de Google lo revise manualmente, y si todo está solucionado, devolver al sitio a su estado de visibilidad correspondiente (anterior al beneficio que hubiera podido extraer de esas acciones no recomendadas).

¿Cada cuánto y con qué frecuencia Google vuelve a rastrear e indexar un sitio web?

 

Según el buscador, mirar todo el sitio web de una vez o incluso en un corto período de tiempo puede causar una carga significativa en un sitio web. Por ello Googlebot intenta ajustar el rastreo y limitarlo a un cierto número de páginas todos los días. Este número será en función de si el bot puede reconocer mejor esos límites de carga del sitio web. Comprobar partes de un sitio web significa para ellos tener que priorizar cómo van a rastrear.

Entonces, ¿cómo funciona esto? En general, Googlebot intenta rastrear páginas importantes con más frecuencia para asegurarse de que la mayoría de las páginas críticas estén cubiertas. A menudo, esta será la home o tal vez categorías. El nuevo contenido normalmente suele aparecer en la portada del sitio o al menos etiquetados bajo una categoría. Repiten esas páginas con frecuencia, tal vez cada pocos días.

  • ¿Google rastrea 404s o 410s?

En un reciente Webmasters Hangout, John Mueller afirmó que, si esas páginas que ahora devuelven un 4xx antes Google las conocía y solían existir, el bot va a volver a checkearlas de nuevo. Pero esto no implica que tu presupuesto de rastreo se vea perjudicado porque entre a ver urls 4xx, sino que Google tiene una capacidad mayor de rastrear tu sitio, y que puede además re-rastrear urls que antes no servían un código de error y ahora sí. Lo que ocurrirá es que se notificará un incremento de errores en search console a modo de aviso pero si se tratan de urls 4xx marcadas a propósito, no es algo de lo que tengas que preocuparte.  Fuente resumen: Search Engine Journal

¿Por qué el número de páginas indexadas de Search Console es diferente de lo que aparece en Google?

Y es que dependiendo de dónde veas el número de páginas que Google tiene indexadas de tu sitio web, el resultado puede variar significativamente.
Entonces, ¿cuál es el dato correcto que debería usarse?
Desde Google afirman que ese dato no es tan fácil de determinar (existen urls con parámetros, barra final, etc.) y es que hay tres formas de calcular ese dato:

  1. Comando site:dominio.com desde Google
  2. Opción “Estado de Indexación” desde Search Console
  3. Mirar el dato de urls indexadas de tus sitemaps desde Search Console

Sin embargo no recomiendan tomar la primera forma como la ideal para calcular el dato, y sí las dos opciones que exigen conectar tu cuenta con Search Console, ya que según ellos los datos son más fiables.

¿Qué se debería hacer con los errores 404 antiguos que siguen apareciendo en Search Console?

Los sites evolucionan a lo largo de su vida y en muchas ocasiones implican cambios de urls, redirecciones, etc. En esta reestructuración del site lo recomendable es realizar redirecciones de las urls antiguas a las nuevas y actualizar los links que antes apuntaban a esas urls antiguas para que apunten directamente a las nuevas.

Sin embargo con el tiempo es posible que esas redirecciones dejen de tener sentido mantenerlas por tema de costes y se desactiven, o se eliminen porque no derivan un tráfico relevante, o incluso porque se han olvidado de esas urls al pasar al nuevo sitio. Es por ello que todas estas urls cuando no son válidas, se devuelva a través del servidor un código respuesta 404 “Error página no encontrada”, apareciendo como tal en nuestras estadísticas de rastreo dentro de la propiedad del sitio en Search Console.

Es interesante el comprobar a través de los logs o herramientas de analítica cuál es el tráfico que derivan esas urls para tomar la mejor solución. Si esas urls no derivan tráfico como hablamos anteriormente, o no reciben enlaces, quizás lo mejor es dejarlas como 404 y no habría problema. En caso contrario se debería plantear si se redireccionan esa urls y hacía que contenido.

Desde Search Console en Errores No Se Encuentra podrás filtrar esos errores por su fecha de rastreo y ver si afectan más gravemente a tu sitio o no para tomar la mejor decisión (Ver –Cómo tratar un 404 “sin perder en SEO“-).

¿Pueden las urls llevar palabras que no se corresponden con tu idioma de posicionamiento local?

Es cierto que a nivel de usuario, el que alguien encuentre una url con términos en otro idioma, puede generarle confusión y pensar que el idioma en el que esta escrito no es el que desea.

Desde Google afirman que si esas urls son válidas y únicas, por su parte las rastreará e indexará sin problemas. Hay ocasiones en los que las urls con palabras se transforman al llevar caracteres especiales, por lo que generan más confusión aún.

Independientemente de lo que se coloque dentro de las URL, es importante facilitar a los usuarios ese el enlace a las páginas. Por ejemplo, evitar los espacios, comas y otros caracteres especiales en la URL. Usar guiones para separar palabras en la URL. Algunos prefieren usar guiones bajos, no hay problema. Los guiones son generalmente un poco más fáciles de reconocer.

Si tu sitio está disponible en varios idiomas, usa el idioma apropiado en las URL para el contenido en ese idioma.

¿Eliminar la extensión “.html” de las urls puede afectar a mi site?

La respuesta rápida es NO.

Independientemente de la extensión que lleve la url: html, asp, php, etc, Google las va a encontrar de igual forma.

Sin embargo apuntan que, si te decides a por ejemplo cambiar de CMS y éste a su vez no permite la configuración de las urls con la extensión “.html”, a Google le llevará más tiempo en re-procesar y entender este cambio de urls.

Añadir sitemaps para más de 50.000 urls

Los sitemaps están limitados a un máximo de 50K urls por archivo. A través de estos sitemaps, Google y otros buscadores, pueden acceder más fácilmente a esas urls y de forma “más rápida” que si tuvieran que dedicar su tiempo en rastrearlas.

Si el problema es que tienes/quieres subir más urls a un sitemap y estás limitado por ese número, lo que recomiendan es subir más sitemaps con esas urls que quedan. Y es que puedes subir más de un sitemap por sitio. Puedes hacerlo de forma individual, o a través de un sitemap index que a su vez incluya más sitemaps individuales.

Existen varias formas de validar el sitemap para Google, la opción más rápida es a través de Search Console (es recomendable a su vez probar esa url de sitemap para comprobar que no contiene errores ni fallos técnicos en inlcuso de prop, pero también puedes habilitar la url del sitemap a través del robots.txt del sitio.

Fuente original: Blog de Google para Webmasters “Presentamos la nueva serie de videos para webmasters”

Google Search Console ofrecerá datos >12 meses en Search Analytics

ACTUALIZACIÓN 25/06/2018

El pasado 08 de Enero de 2018, Google confirmaba a través de su post titulado “Introducing the new Search Console“, que la nueva versión de Google Search Console ofrecerá hasta 16 meses de datos históricos, y no 12 como se ha estado especulando últimamente en Twitter. Este histórico de datos podrás encontrarlos desde la nueva función de la herramienta en el apartado: “Informe de rendimiento de búsqueda

Otra de las nuevas opciones añadidas en la herramienta es la de “Inspección de Urls“, que permite entre otras cosas, obtener un mayor detalle de cómo Google ve una determinada url en términos de rastreo, indexación e información servida de esa página en sus resultados de búsqueda.


La herramienta Google Search Console se actualizará a lo largo de 2018 con nuevas e interesantes funcionalidades para los webmasters. Tal y como hablamos en el post “Actualizaciones de Google Search Console” una de las opciones (seguramente más demandadas) era poder ampliar el histórico de datos de “search analytics”, ya que actualmente sólo ofrece los últimos 90 días.

Pues bien, según John Mueller en una de sus respuestas en Twitter a Glenn Gabe, esa nueva opción de search analytics estaría disponible para todos a principios de 2018.

Por ahora esta nueva funcionalidad ya estaría disponible en la versión Beta de la herramienta. En el comentario en Twitter del propio Glenn Gabe se muestra la gráfica con el histórico de datos de los últimos 12 meses.

 

Actualizaciones Nueva Google Search Console

Google Search Console (la herramienta para desarrolladores gratuita de Google) sigue avanzando y lanzando nuevas funcionalidades que ayudan a los webmasters a resolver los errores más graves de sus sitios.

Pasar de la versión antigua a la nueva versión de Search Console

Presentando Search Console BETA 08/01/2018

Nuevas mejoras han sido comunicadas por Google a través del post titulado: “Introducing the new Search Console” y se centran en:

  • Hasta completar la totalidad integración de la nueva SC, ambas versiones – antigua y nueva – convivirán durante meses. Se espera que sea lanzada totalmente a mediados de 2018.
  • Se agrega la opción de poder compartir informes para facilitar el trabajo por grupos.
  • El nuevo Informe de Rendimiento de Búsqueda (Search Analytics) incorporará hasta 16 meses de datos y opción de comparación. Se habilitará también para la API de Search Console.
  • El informe de Estado de indexación se actualiza y ofrece información mucho más compleja y fácil de entender para llevar a cabo tus acciones SEO técnicas. Muestran información actualizada sobre las URL correctamente indexadas, advertencias sobre posibles problemas y razones por las que Google no las indexa.
  • Más funcionalidades para la mejora de AMP: permite hacer varias validaciones en vivo para testar si pasan o no el filtro, y si no, muestra los posibles errores y formas de corregirlo.

“COBERTURA DEL ÍNDICE” Y “AMP” 21/08/2017

Las últimas mejoras las comunicó Google el pasado 1 de Agosto y se centran principalmente en la parte de indexación de páginas y en el reporte de errores de AMP.

  • La parte de indexación de páginas va más allá del informe actual donde se muestra el número de páginas que tu sitio tiene indexadas (Índice de Google – Estado de indexación) y aquellas que han sido bloqueadas por robots. Ahora con la nueva update Google permitirá identificar las páginas que no han sido indexadas y ofrecer tips para solucionarlo. Dentro de esta nueva opción también añade la posibilidad de subir un sitemap para ayudar a la indexación más rápida de esas urls.
  • En cuanto a la parte de Errores AMP (Apariencia en el buscador – Accelerated Mobile Pages), una de las novedades es una que se echaba de menos y era el poder “forzar” el rastreo de urls amp que ya había sido corregidas. Hasta entonces la opción pasa por ir uno a uno o incluso subir un sitemap temporal con las urls amo corregidas. Sin embargo ahora desde el tipo de error, se podrán ver las páginas que están siendo afectadas y hacer una petición recrawl de todas ellas.
  • Se habla incluso de la posibilidad de aumentar el histórico de la información de nuestro sitio, es decir, mostrar más datos más allá de los 90 días que por ejemplo te permite mostrar la opción de tráfico de búsqueda.

“INSPECCIÓN DE URLS” 17/07/2018

Google anunció el pasado 25 de junio de 2018 una nueva opción en la herramienta de Search Console llamada “Inspección de URLs”.

Ésta nueva opción permite entre otras cosas, obtener un mayor detalle de cómo Google ve una determinada url en términos de rastreo, indexación e información servida de esa página en sus resultados de búsqueda.

“PERMISOS A USUARIOS” , “VERIFICACIÓN DE PROPIEDADES” E “INFORME DE USABILIDAD MÓVIL” 15/08/2018

El pasado 15 de agosto de 2018 Google comunicó a través de Twitter tres nuevas funciones dentro de la herramienta en fase Beta:

  • “Usuarios y Permisos”: dentro de la opción de “Configuración” se pueden gestionar los permisos que teníamos en la versión antigua, y además te ofrece más información como el nombre asociado a esas cuentas …
  • “Verificación de la propiedad”: se muestra el método utilizado por tu sitio web para verificarla en la herramienta, además te muestra todas las opciones posibles para hacerlo como: subir un archivo html al sitio, añadir una metaetiqueta en la home page, usar la cuenta de GA, usar la cuenta de GTM y a través de DNS.
  • “Usabilidad Móvil”: dentro de la opción de “Estado”, este informe nos ofrece la misma información que teníamos en la antigua herramienta, sólo que además de las incidencias detectadas y el número de páginas afectadas, ahora ofrece las urls válidas detectadas y el número de impresiones. Importante su seguimiento teniendo en cuenta que se trata de una señal de ranking para Google.

Más Información sobre el Informe de Usabilidad móvil

“ENLACES” 21/08/2018

Google anuncia oficialmente en su blog una nueva funcionalidad llamada “Enlaces” al nuevo Search Console (ya estaba en la antigua versión).

Este nuevo informe mejorado de “Enlaces a tu sitio” integra cuatro gráficas:

  • Enlaces externos: páginas de tu site que más enlaces reciben de otras propiedades.
  • Enlaces internos: páginas de tu site que más enlaces reciben desde dentro de tu propio site.
  • Sitios web con más enlaces: cuáles son los hosts que más enlaces envían a tu site.
  • Texto de enlace más frecuente: indica el anchor text con el que más te están enlazando.

Alguna información a tener en cuenta sobre este nuevo informe es:

  • Las páginas se agrupan en función de su URL canónica (sin parámetros, etc.).
  • Los enlaces duplicados cuentan como uno.
  • Aunque en el informe “Enlaces” se usa el término “sitio web”, en realidad los datos se agrupan por dominio raíz; los protocolos (http/https), los subdominios (m., www) y los subdirectorios se recortan y se unifican. Como consecuencia, es posible que los enlaces se consoliden y que su número disminuya.
  • No se muestran los enlaces a las páginas del sitio que se hayan bloqueado con el archivo robot.txt.
  • Si Google detecta un enlace a tu sitio que devuelve un 404 el enlace no se mostrará en esta página.

SEO: ¿Redireccion 301 y cambio de dirección en Search Console?

¿Cuál es el beneficio usar la opción de “cambio de dirección” en Search Console?

Frente a la pregunta del título surge la duda además de: ¿entonces qué pasa con las redirecciones que hago en la migración del sitio?

Hay que tener en cuenta que:

  1. El cambio de dirección en la opción de Search Console es a nivel site, mientras que las redirecciones son a nivel página. Es decir, ¿que pasa si mueves un directorio a otro directorio?
    Puedes hacer redirs 301 de cada una de sus páginas internas a sus correspondientes urls en el nuevo directorio. Sin embargo con el cambio de dirección lo que indicas a Google es que un sitio o directorio entero se ha movido a otro sitio.
  2. Las redirecciones 301 pueden tardar un poco más en surtir el efecto de las señales, mientras que el cambio de dirección en GSC es una señal inmediata a Google.

En resumen,

Desde Google, recomiendan hacer ambas acciones, primero el cambio de dirección en GSC (para indicar el cambio de todo el sitio) y seguido, hacer las redirecciones 301 a nivel individual de url a url.

También estaría bien hacer las redirecciones 301 del sitio (sin hacer el cambio en GSC), y si pasados 3 meses todo está correcto, no haría falta hacer el cambio de dirección ya que Google está teniendo en cuenta esa migración de forma correcta. En caso contrario se podría ayudar a Google indicándolo en la herramienta.

Aquí podéis ver la aclaración completa según Matt Cutts.

Configurar Segmentación Internacional en Google Search Console

Durante estos cinco minutos de este hangout, Mihai Aperghis, plantea una duda acerca de la segmentación de un ecommerce que quiere dirigirse a diferentes países de habla inglesa (UK, Canadá, Australia, etc) y de cómo tiene que marcarlo en Search Console cuando este sitio web tenía ya marcada previamente la opción de: segmentación internacional = US, y que por ello habían experimentado un descenso de su tráfico global.

La solución que ofrece John Mueller,no es la opción de desmarcar y no seleccionar ningún país de la opción de segmentación internacional/país, sino la de seleccionar esa opción, y del listado de países que se ofrecen, seleccionar NINGUNO ( opción “unlisted” en inglés).

Si no marcas esta opción, Google por defecto marca el país de Estados Unidos, pero en realidad lo que hace no es elegir este país, sino que Google automáticamente coge la geolocalización que cree mejor para tu sitio web, en función de diferentes variables como el dominio del sitio (.com, .es, .eu, etc), dirección IP, ubicación de la página, enlaces a la página, información en Google My Business, etc.

Si marcamos la opción NINGUNO del listado de países, le estamos diciendo a Google explícitamente que no queremos tener geotargeting aplicado para este sitio, y que realmente debería ser global.

Se trata de una opción muy útil para sitos de ecommerce y otros sitios donde lo que quieres es no ubicarlo en un único país, sino enfocarlo de manera global, ya que tu sitio es internacional.

Con esta opción, como dice John Mueller, no se puede asegurar, pero es posible que la caída de trafico que ese sitio web tenía de US al estar enfocado exclusivamente en ese país, ahora al incluirle la etiqueta de “global” (NINGUNO en la lista) el tráfico debería aumentar al expandirse la geolocalización a más países.

La actualización por Google una vez hecho el cambio en la Search Console es rápida, por lo que en torno a una semana después de guardar los cambios se deberían empezar a ver modificaciones en el tráfico de búsqueda.

Puedes consultar en este enlace toda la información que Google ofrece en el apartado de ayuda referida a la configuración de la Segmentación Internacional del sitio web.