por

Notas SEO

Las reconsideraciones de solicitud sólo se aplican en el caso de haber sido penalizados por una acción manual y siempre y cuando se haya solucionado. Principalmente son producidas por realizar prácticas de spam. En ningún caso se aplica la reconsideración en penalizaciones del site (por ejemplo si el tráfico de la web cae drásticamente) por cambios automáticos en los algoritmos. Más información sobre las solicitudes de reconsideración por Google. 

Uno de los ejemplos más claros son las actualizaciones de Pengüin, donde una web no se levantará de su penalización hasta que se limpie y el algoritmo vuelva a actualizarse. La problemática es que su efecto penalizador en una web puede ser importante y la actualización del algoritmo puede tardar hasta un año. Ésta es otra de las inquietudes que muchos Seos han transmitido, y es que la actualización de Pengüin sea más rápida, incluso que se aplique en tiempo real. En cualquier caso si tienes dudas sobre si tu sitio ha sido penalizado por una acción manual o algorítmica, ejecutar la solicitud de reconsideración sería una buena opción. La respuesta de los empleados de Google (no hay máquinas detrás de éstas revisiones) suele ser de unos pocos días después tanto positiva como negativamente.

Fuente DeepCrawl

  • Etiqueta Meta Keywords

Cada vez es menos relevante implementar la meta keywords en las páginas, ya que Google apenas le da peso (por no decir ninguno) al posicionamiento de la web. Y es que en el pasado algunos webmasters abusaban de este campo para intentar posicionar sus webs por palabras clave que poco o nada tenían que ver con la actividad que desarrollaban.

  • Page Rank

Parece que el valor público del PR que muchas barras de herramientas mostraban de los sites en nuestro browser va a dejar de mostrarse al llevar sin actualizarse por Google desde 2013. Así lo dijo John Mueller ingeniero de Google en una de sus hangout en 2014.

  • Indexación

Pese a que una página la deshabilites y con meta no index, seguirá estando en el índice de Google mientras ésa url reciba enlaces tanto internos como externos. En el caso que se especifique en el robots no podrá ser rastreada.

  • Sitemaps

Para ayudar a Google a entender mejor el contenido de tu web se recomienda no sólo la creación de sitemaps, sino de especificar éstos en el robots.txt.

  • ¿Cuántas páginas tiene indexadas Google de mi site?

Para ver el número de páginas que Google tiene indexadas de tu web, se recomienda comparar lo obtenido con el comando “site: query” ; con el dato que ofrece Google en la Search Console, aunque quizás el dato más aproximado sea el primero. Para ver más exactamente qué es lo que Google ha recopilado de tu web, puedes comprobarlo con el comando “info: query”

  • LSI Latent Semantic Indexing

Busca sinónimos relacionados con el title de la pagina, es decir, Google y el resto de motores de búsqueda esperan encontrar a lo largo del contenido un ecosistema de keywords alrededor de la/s palabra/s clave principal. Por ejemplo: si el artículo se titula “El Ibex 35 se desploma hasta los 10.000 puntos”, esperan encontrar sinónimos a Ibex 35 como: bolsa, selectivo español, índices bursátiles, valores, etc. De ahí la importancia de semantizar el contenido haciendo “más inteligente” a los buscadores para entender el contenido y temática de la web, ya que de lo contrario si repites y abusas de la palabra clave principal podrías incurrir en una practica poco recomendable como es el “keyword stuffing”.

Más información sobre qué es LSI.