Page Speed Insights: ¿cómo tener una mayor velocidad de tus páginas?

El pasado 10 de enero de 2018, Google lanzó una nueva actualización de su herramienta gratuita PageSpeed Insights. Ahora la tool ofrecerá una información más real acorde con lo que el usuario experimentaría en la carga de la página, y no tanto la forma en la que Googlebot lo testea cuando pruebas la herramienta.

Por ello, anuncia que la herramienta utilizará los datos del Informe de experiencia de usuario de Chrome, con los que ofrecer mejores recomendaciones técnicas para desarrolladores.

¿Qué significan las dos métricas FCP y DCL que utiliza PSI?

First Contentful Paint (FCP): se registra el momento en que los usuarios obtienen respuestas visuales de las páginas. Cuanto más rápido se obtengan, más probabilidades hay de mantener el interés de los usuarios.

DOM Content Loaded (DCL): se mide el momento en que se cargan y analizan los documentos HTML. Si estos tiempos son breves, disminuyen los porcentajes de rebote.

 

Más preguntas frecuentes sobre PSI en este enlace

Google: El papel de la publicidad entre el SEO y la Experiencia de Usuario

El pasado 1 de junio de 2017, Google comunicaba sus intenciones acerca de la publicidad en los sitios web y su actualización de Chrome a través de su post titulado “Mejorando la publicidad en la web“.

En este post se menciona el estudio impulsado por el usuario sobre los formatos de publicidad que llevan a estos a activar los diferentes ad-blockers (sobre un 30% más que respecto al año 2016) para no empeorar su experiencia de consumo. Esta investigación realizada por la Coalición para mejores anuncios en la creación de los estándares Better Ads describe algunas de estas experiencias: anuncios intersticiales de página completa, anuncios que reproducen sonido inesperadamente y los anuncios intermitentes. De ese estudio se sacó también la conclusión, que no todos los anuncios son mal vistos por los usuarios, y es que por ejemplo, el 85% de los usuarios móviles dijeron que encontraron anuncios ancla (que se adhieren a la parte inferior de la pantalla a medida que se desplaza) solo un poco molestos o no molestos en absoluto. 

Con esa intención por parte de Google por mejorar la experiencia de usuario a través de un formato de publicidad permisivo (y que no ponga en peligro el ecosistema web de ingresos publicitarios), el buscador a través de Chrome dejará de mostrar anuncios (incluidos aquellos que pertenecen o son servidos por Google) en sitios web que no cumplan con los Estándares de mejores anuncios a partir de febrero de 2018 donde activará su propio ad-blocker.

Como herramienta de ayuda, Google ha creado una nueva funcionalidad dentro de la herramienta para desarrolladores y webmasters, Search Console, que permitirá comprobar si las experiencias de anuncio de tu sitio web incumplen los estándares Better Ads.

Desde el punto de vista de los publishers que ofrecen este tipo de anuncios, Google ofrece a los editores con buenas experiencias publicitarias a pagar por su trabajo. Con Opciones de financiación (por ahora en beta) los editores pueden mostrar un mensaje personalizado a los visitantes que utilizan un bloqueador de anuncios, invitándolos a habilitar anuncios en su sitio o pagar un pase que elimina todos los anuncios en ese sitio a través del nuevo Google Contributor.

¿Cómo comprobar si los anuncios de mi sitio cumplen o no los estándares de calidad?

Desde el panel de Search Console -> “Web Tools“, se puede acceder a las funciones de “Informe de experiencia de usuario” dividido entre dispositivos móviles y ordenadores.

En el siguiente vídeo publicado por Google desde su cuenta de “Google Webmasters” puedes verlo todo lo anteriormente explicado de forma visual.


Después de haber comprobado si tu sitio web presenta alguna de esas experiencias e identificar los posibles problemas que tendrías que solucionar, puedes pedir una revisión del sitio.

Para saber si tu sitio web se he revisado, haz clic en Ordenador o Móvil y consulta el informe correspondiente.

“SEO Snippets”, nueva serie de vídeos de Google para Webmasters

Con el objetivo de conseguir que los webmasters y propietarios de los sitios web mejoren el rendimiento de sus sitios, Google lanzó el pasado 21 de diciembre de 2017, una serie de vídeos cortos en su canal de Youtube Google Webmasters titulado “Bienvenido a los SEO Snippets” y presentados por John Mueller (Webmaster Trends Analytics en Google). Anteriormente Matt Cutts (antiguo director del departamento contra el spam en la web, de Google) era el encargado de publicar vídeos cortos respondiendo a preguntas que enviaban algunos webmasters, como por ejemplo: “¿Las páginas de redes sociales rankean de forma diferente?“.

Recientemente actualizó su Guía de optimización en buscadores (SEO) para principiantes con el mismo objetivo.

La idea de esta serie de vídeos cortos, es responder a preguntas concretas (con soluciones específicas) que se hacen con mucha frecuencia en el foro de ayuda de webmasters muchos SEOs y propietarios de sitios web.

Estos son los vídeos y resumen de cada uno:

¿La regla del crawl-delay es ignorada por Googlebot?

La idea del crawl-delay para el archivo robots.txt, fue introducido anteriormente por otros buscadores como Yahoo!, Bing, Yandex. etc. para que el webmaster pudiera especificar cuántos segundos un rastreador o crawler esperaría entre peticiones con el objetivo de balancear el límite de carga del servidor web. Teniendo en cuenta que los servidores son bastante dinámicos, no parece tener mucho sentido esa idea. Por tanto, en lugar de la directiva crawl-delay, decidieron automáticamente ajustar sus rastreos en función de cómo los servidores son capaces de reaccionar para cada caso particular del sitio en cuestión.

Desde la herramienta de Search Console, en “Configuración del sitio“, puedes limitar la frecuencia de rastreo de Google.

Subdominio o directorio, ¿cuál es mejor para SEO?

Aclaran que cualquiera de las dos formas es correcta para Google, sólo que hacer cambios en la estructura de urls de tu sitio, puede llevar un poco más tiempo a que Google entienda esa nueva relación y otorge el peso correspondiente a cada enlace. Por tanto, recomiendan escoger cualquiera de las dos opciones, siempre y cuando se mantengan bajo una estrategia de largo plazo, y no se hagan cambios de urls de forma frecuente.

En el caso de elegir subdominios, se recomienda “Verificar” la propiedad en Search Console para poder hacer una monitorización y seguimiento de estadísticas en cuanto a rendimiento del sitio, accesibilidad de los rastreadores, etc. Si escoges carpetas o directorios, puedes también verificar ese path concreto en la herramienta y sacar datos en particular.

La template de mi sitio tiene varias etiquetas H1, ¿supone un problema?

Las etiquetas H1 son utilizadas comúnmente para marcar el encabezado de una página. Con HTML5 afirman que es habitual tener varios elementos H1 separados para diferentes partes de una página. Si utilizas una template en HTML5 tus páginas tendrán un uso correcto de usar múltiples H1 en la cabecera automáticamente.

En cualquier caso, afirman que tanto si utilizas HTML5 como no, el tener varios H1 en una página, si están bien marcados, no hay problema.

¿Cómo puedo recuperar el control de una propiedad en Google Search Console?

Quizás te hayas preguntado cómo puedes recuperar el control al acceso de tu cuenta de Search Console (antigua Webmaster Tools) si no recuerdas cuál era la cuenta que usaste anteriormente o que no consigas volver a esa cuenta.

Pues bien, puedes por ejemplo crear una nueva cuenta -> verificar su propiedad y volver a trabajar en poco tiempo. Una vez verificada, tendrás acceso a toda la información que recoge la herramienta. También puedes hacer una lista con los otros propietarios verificados y tal vez detectar esas cuentas previas o ver qué tipo de acceso puedes eliminar.

¿Las penalizaciones corregidas afectan al SEO?

Las acciones manuales (que se pueden ver en Search Console) enviadas por el equipo de de webspam de Google y corregidas por el propietario del sitio afectado, una vez que se ha enviado la solicitud de reconsideración, ¿es suficiente para “sanar” tu sitio o es necesario algún paso más?.

Una vez se ha corregido la infracción y realizado esa solicitud, es suficiente para que el equipo de webspam de Google lo revise manualmente, y si todo está solucionado, devolver al sitio a su estado de visibilidad correspondiente (anterior al beneficio que hubiera podido extraer de esas acciones no recomendadas).

¿Cada cuánto y con qué frecuencia Google vuelve a rastrear e indexar un sitio web?

 

Según el buscador, mirar todo el sitio web de una vez o incluso en un corto período de tiempo puede causar una carga significativa en un sitio web. Por ello Googlebot intenta ajustar el rastreo y limitarlo a un cierto número de páginas todos los días. Este número será en función de si el bot puede reconocer mejor esos límites de carga del sitio web. Comprobar partes de un sitio web significa para ellos tener que priorizar cómo van a rastrear.

Entonces, ¿cómo funciona esto? En general, Googlebot intenta rastrear páginas importantes con más frecuencia para asegurarse de que la mayoría de las páginas críticas estén cubiertas. A menudo, esta será la home o tal vez categorías. El nuevo contenido normalmente suele aparecer en la portada del sitio o al menos etiquetados bajo una categoría. Repiten esas páginas con frecuencia, tal vez cada pocos días.

  • ¿Google rastrea 404s o 410s?

En un reciente Webmasters Hangout, John Mueller afirmó que, si esas páginas que ahora devuelven un 4xx antes Google las conocía y solían existir, el bot va a volver a checkearlas de nuevo. Pero esto no implica que tu presupuesto de rastreo se vea perjudicado porque entre a ver urls 4xx, sino que Google tiene una capacidad mayor de rastrear tu sitio, y que puede además re-rastrear urls que antes no servían un código de error y ahora sí. Lo que ocurrirá es que se notificará un incremento de errores en search console a modo de aviso pero si se tratan de urls 4xx marcadas a propósito, no es algo de lo que tengas que preocuparte.  Fuente resumen: Search Engine Journal

¿Por qué el número de páginas indexadas de Search Console es diferente de lo que aparece en Google?

Y es que dependiendo de dónde veas el número de páginas que Google tiene indexadas de tu sitio web, el resultado puede variar significativamente.
Entonces, ¿cuál es el dato correcto que debería usarse?
Desde Google afirman que ese dato no es tan fácil de determinar (existen urls con parámetros, barra final, etc.) y es que hay tres formas de calcular ese dato:

  1. Comando site:dominio.com desde Google
  2. Opción “Estado de Indexación” desde Search Console
  3. Mirar el dato de urls indexadas de tus sitemaps desde Search Console

Sin embargo no recomiendan tomar la primera forma como la ideal para calcular el dato, y sí las dos opciones que exigen conectar tu cuenta con Search Console, ya que según ellos los datos son más fiables.

¿Qué se debería hacer con los errores 404 antiguos que siguen apareciendo en Search Console?

Los sites evolucionan a lo largo de su vida y en muchas ocasiones implican cambios de urls, redirecciones, etc. En esta reestructuración del site lo recomendable es realizar redirecciones de las urls antiguas a las nuevas y actualizar los links que antes apuntaban a esas urls antiguas para que apunten directamente a las nuevas.

Sin embargo con el tiempo es posible que esas redirecciones dejen de tener sentido mantenerlas por tema de costes y se desactiven, o se eliminen porque no derivan un tráfico relevante, o incluso porque se han olvidado de esas urls al pasar al nuevo sitio. Es por ello que todas estas urls cuando no son válidas, se devuelva a través del servidor un código respuesta 404 “Error página no encontrada”, apareciendo como tal en nuestras estadísticas de rastreo dentro de la propiedad del sitio en Search Console.

Es interesante el comprobar a través de los logs o herramientas de analítica cuál es el tráfico que derivan esas urls para tomar la mejor solución. Si esas urls no derivan tráfico como hablamos anteriormente, o no reciben enlaces, quizás lo mejor es dejarlas como 404 y no habría problema. En caso contrario se debería plantear si se redireccionan esa urls y hacía que contenido.

Desde Search Console en Errores No Se Encuentra podrás filtrar esos errores por su fecha de rastreo y ver si afectan más gravemente a tu sitio o no para tomar la mejor decisión (Ver –Cómo tratar un 404 “sin perder en SEO“-).

¿Pueden las urls llevar palabras que no se corresponden con tu idioma de posicionamiento local?

Es cierto que a nivel de usuario, el que alguien encuentre una url con términos en otro idioma, puede generarle confusión y pensar que el idioma en el que esta escrito no es el que desea.

Desde Google afirman que si esas urls son válidas y únicas, por su parte las rastreará e indexará sin problemas. Hay ocasiones en los que las urls con palabras se transforman al llevar caracteres especiales, por lo que generan más confusión aún.

Independientemente de lo que se coloque dentro de las URL, es importante facilitar a los usuarios ese el enlace a las páginas. Por ejemplo, evitar los espacios, comas y otros caracteres especiales en la URL. Usar guiones para separar palabras en la URL. Algunos prefieren usar guiones bajos, no hay problema. Los guiones son generalmente un poco más fáciles de reconocer.

Si tu sitio está disponible en varios idiomas, usa el idioma apropiado en las URL para el contenido en ese idioma.

¿Eliminar la extensión “.html” de las urls puede afectar a mi site?

La respuesta rápida es NO.

Independientemente de la extensión que lleve la url: html, asp, php, etc, Google las va a encontrar de igual forma.

Sin embargo apuntan que, si te decides a por ejemplo cambiar de CMS y éste a su vez no permite la configuración de las urls con la extensión “.html”, a Google le llevará más tiempo en re-procesar y entender este cambio de urls.

Añadir sitemaps para más de 50.000 urls

Los sitemaps están limitados a un máximo de 50K urls por archivo. A través de estos sitemaps, Google y otros buscadores, pueden acceder más fácilmente a esas urls y de forma “más rápida” que si tuvieran que dedicar su tiempo en rastrearlas.

Si el problema es que tienes/quieres subir más urls a un sitemap y estás limitado por ese número, lo que recomiendan es subir más sitemaps con esas urls que quedan. Y es que puedes subir más de un sitemap por sitio. Puedes hacerlo de forma individual, o a través de un sitemap index que a su vez incluya más sitemaps individuales.

Existen varias formas de validar el sitemap para Google, la opción más rápida es a través de Search Console (es recomendable a su vez probar esa url de sitemap para comprobar que no contiene errores ni fallos técnicos en inlcuso de prop, pero también puedes habilitar la url del sitemap a través del robots.txt del sitio.

Fuente original: Blog de Google para Webmasters “Presentamos la nueva serie de videos para webmasters”

Google lanza su nueva herramienta para verificar Resultados Enriquecidos

Ya sabemos que los propietarios de los sitios web tienen la oportunidad de poder resaltar sus páginas y contenido en los resultados de búsqueda de Google. A través de los conocidos como “resultados enriquecidos” y que cada vez tienen más importancia.

Y es que, que determinadas páginas de tu web lleven incrustados determinados microdatos podrá tener un efecto indirecto en el SEO, ya que al darle un formato especial en los resultados, será más atractiva al clic y por tanto tendrá más posibilidad de incrementar tu CTR. Por ejemplo si eres un portal especializado en recetas de cocina, puedes añadir los microformatos conocidos como “Recipes” de tal forma que tu artículo recete se mostrará con una valoración o rating en estrellas…

Hasta ahora, estos formatos de noticias se les conocía también como “Tarjetas enriquecidas”, de hecho así se sigue mostrando en la herramienta Search Console. Sin embargo, a partir de ahora pasarán a llamarse oficial y únicamente como “resultados enriquecidos” tal y como anuncian en su post.

¿Tu página puede generar resultados enriquecidos?

Pues bien, ahora Google ha lanzado una nueva herramienta online llamada “Prueba de resultados enriquecidos” (por ahora en fase beta) que permitirá hacer un diagnóstico y comprobar si esa página es apta o no para generar resultados enriquecidos.

La herramienta ofrece incluso la posibilidad de poder enviar esa url a Google para que acceda de forma más fácil a rastrearla y modificar su formato si es que realizases algún cambio técnico en el html de la página.

Hasta el momento permite probar todas las fuentes de datos en las páginas, como JSON-LD (que recomiendan ya que probablemente acabará convirtiéndose en estándar), Microdata o RDFa.

Por ahora la herramienta sólo es compatible con los microformatos de Recetas, Trabajos, Películas y Cursos. Pero se espera que se vayan incorporando el resto de opciones.

Al estar en formato beta aún, la herramienta no muestra errores de sintaxis en la implementación de los microformatos con Schema.

Prueba de datos estructurados

Además de la nueva herramienta de Resultados enriquecidos, puedes acceder a su otra herramienta online llamada “Prueba de datos estructurados” donde podrás extraer y comprobar la implementación de datos incrustados en el html en los diferentes formatos de schema. Una herramienta muy útil para pasarle una url concreta o un fragmento de código y explorar si muestra errores para solucionarlos cuanto antes.

Chrome activará su propio ad-blocker para eliminar anuncios abusivos

Tal y como ya anunció Google el pasado 1 de junio de 2017, los planes para su buscador  Chrome serán admitir los Better Ads Standards como estándares de calidad en anuncios para principios de 2018. Las infracciones de los estándares se informarán a los sitios mediante el Informe de experiencia publicitaria , y los propietarios del sitio web podrá enviar una revisión del mismo una vez resueltas todas las incidencias.

Pues bien, además del pasado comunicado, a partir del próximo 15 de febrero de 2018, Google pondrá en marcha en Chrome (versión 64 / 65) una actualización que permitirá bloquear determinados formatos de publicidad (incluidos los suyos propios) que perjudiquen y vayan contra la mejor experiencia del usuario en su navegación. Así lo anunció el pasado 19 de diciembre desde su portal para desarrolladores bajo la pestaña “Una actualización en Better Ads“.

Esos formatos de publicidad permitidos se engloban dentro del acuerdo de “Coalición para mejores anuncios” donde Google se integró a través de su programa “Better Ads Experience para ayudar a mejorar esa experiencia con los anuncios web.

Se trata de eliminar aquellos anuncios intrusivos, como por ejemplo formatos de interstitialsque pasaron a ser oficialmente considerados por el buscador como penalizables y que afectarían al posicionamiento de los sitios que los utilizaban.

¿Cómo comprobar si los anuncios de mi sitio cumplen o no los estándares de calidad Chrome y afectarían al SEO de mi sitio web?

Desde la herramienta para desarrolladores de Google (Google Search Console) se podrá acceder a verificar si los anuncios de tu sitio están cumpliendo o no con los requisitos establecidos de calidad.

Desde la opción “Web Tools” del panel principal, se podrá acceder a las funciones de Informe de experiencia de usuario” dividido entre dispositivos móviles y ordenadores.

Desde dentro del panel de Web Tools, también está la funcionalidad de “Experiencias abusivas” donde se mostrarán aquellos formatos con problemas que tendrías que solucionar.

Resumen:

A partir del 15 de febrero de 2018, y de acuerdo con las pautas de la Coalición, Chrome eliminará todos los anuncios de los sitios que tienen un estado de “fallo” en el Informe de experiencia publicitaria de Google Search Console durante más de 30 días.

Google Search Console ofrecerá datos >12 meses en Search Analytics

ACTUALIZACIÓN 25/06/2018

El pasado 08 de Enero de 2018, Google confirmaba a través de su post titulado “Introducing the new Search Console“, que la nueva versión de Google Search Console ofrecerá hasta 16 meses de datos históricos, y no 12 como se ha estado especulando últimamente en Twitter. Este histórico de datos podrás encontrarlos desde la nueva función de la herramienta en el apartado: “Informe de rendimiento de búsqueda

Otra de las nuevas opciones añadidas en la herramienta es la de “Inspección de Urls“, que permite entre otras cosas, obtener un mayor detalle de cómo Google ve una determinada url en términos de rastreo, indexación e información servida de esa página en sus resultados de búsqueda.


La herramienta Google Search Console se actualizará a lo largo de 2018 con nuevas e interesantes funcionalidades para los webmasters. Tal y como hablamos en el post “Actualizaciones de Google Search Console” una de las opciones (seguramente más demandadas) era poder ampliar el histórico de datos de “search analytics”, ya que actualmente sólo ofrece los últimos 90 días.

Pues bien, según John Mueller en una de sus respuestas en Twitter a Glenn Gabe, esa nueva opción de search analytics estaría disponible para todos a principios de 2018.

Por ahora esta nueva funcionalidad ya estaría disponible en la versión Beta de la herramienta. En el comentario en Twitter del propio Glenn Gabe se muestra la gráfica con el histórico de datos de los últimos 12 meses.

 

¿Qué fue lo que más se buscó en Google en 2017?

Como todos los años, Google publica un resumen de cuáles fueron los términos de búsqueda más utilizados en su buscador a través de su portal Google Trends.

Resumen de las keywords más buscadas por temáticas durante 2017:

Las búsquedas internacionales más destacadas sin embargo están relacionadas con el desastre del Huracán Irma; y las relacionadas con los nuevos smartphones de Apple: iPhone 8 y iPhone X. 

En España como se puede ver, han sobresalido las keywords relacionadas con el independentismo en Cataluña. A falta del día más importante del año (después de la declaración de independencia) que será el 21 de Diciembre con las Elecciones en Cataluña.

Desde el perfil oficial de Youtube de Google España, se ha publicado un vídeo resumen donde se repasan los acontecimientos más relevantes del año:

Aquí puedes consultar cuáles fueron las tendencias del 2017 en España

Guía Básica SEO para Webmasters de Google (actualizada 12/12/2017)

El pasado 12 de Diciembre de 2017, Google publicó un post en el blog oficial para webmasters donde anunció una actualización de su guía para principiantes SEO.

Respecto a la anterior versión donde se podía descargar en PDF, esta nueva se puede leer íntegramente sin necesidad de descargar ningún archivo, desde la url publicada dentro de la Ayuda de Search Console bajo el título: “Guía de optimización en buscadores (SEO) para principiantes“.

Para cada una de las prácticas recomendadas enlaza con la url de ayuda/soporte donde poder ir al detalle.

Algunos puntos interesantes de la nueva guía hablan de las mejoras prácticas recomendadas para:

  • Mejorar la rastreabilidad de tu sitio mediante robots.txt , sistema optimizado de paginación, microformatos (mención especial de G a utilizar lo que denominan “listas de ruta de exploración” o también conocidos como “breadcrumbs“).
  • Optimizar tu contenido mejorando los titles, description y fragmento enriquecidos
  • Uso de la etiqueta rel=nofollow
  • Optimización de las imágenes con la etiqueta alt
  • Pensar en una correcta optimización para móviles donde recomiendan (esta vez de forma explícita) el “Diseño web adaptableo también conocido como “versión responsive”.

Contenido AMP vs No-AMP penalización

El pasado jueves 16 de Noviembre, Google desde su blog para webmasters, anunció un actualización importante en el mundo de la distribución del contenido AMP con fecha de inicio el día 1 de febrero de 2018.

Para aquellos que aún no saben qué significa AMP y cuál es su impacto en las búsquedas, os invito a que consultéis este enlace. Además encontraréis herramientas que os ayudarán a optimizar vuestro contenido exclusivo para este nuevo formato.

Es importante tener claro que AMP no se considera directamente un factor de posicionamiento, pero al implicar una reducción en los tiempos de carga y por tanto mejorar usabilidad (tasa de rebote, permanencia en página, etc.), indirectamente tiene su relevancia en el buscador (el tiempo de carga sí es un factor de ranking).

En el artículo, Google habla de las diferencias en la presentación del contenido en aquellos sitios que sirven su sitio web en las dos versiones: versión web canónica y versión AMP.

El contenido que sirves en la versión amp, ha de ser lo más similar al contenido de su versión canónica. Existirán casos en los que determinados elementos “secundarios” de la página como los asides, footer, menú de navegación, etc. serán ligeramente diferentes, pero el contenido principal (titular, cuerpo, etc.) deberá ser el mismo. Apuntan que este aviso surge ante algunos sitios en cuya versión amp incluyen un botón que obliga al usuario a redirigirse a su versión canónica en lugar de consumirlo en amp, lo que supone una mala experiencia de usuario. La excusa para ellos reside en que para ciertos elementos javascript que implican una acción dinámica en esos elementos, a la hora de pasarlo a amp, no existían las etiquetas específicas para ello. El proyecto de AMP continuamente está sacando actualizaciones en la adaptación del contenido a sus etiquetas, e incluso pide ayuda a los sitios para proponer nuevas mejoras que encajen en su filosofía de contenido rápido y amigable.

Where we find that an AMP page doesn’t contain the same critical content as its non-AMP equivalent, we will direct our users to the non-AMP page

Es decir, que si tu contenido principal en amp no es el mismo que el de la página canónica redirigirán al usuario a la versión web. Esto como tal no supone una penalización, pero sí que hablan que este tipo de práctica provocará que tu contenido salga del carrusel de noticias móvil, por lo que perderás visibilidad y por tanto tráfico. No afectará como tal a los resultados orgánicos móvil, pero tiene sentido sacarte de ese módulo, ya que su objetivo es consumir rápidas noticias y de forma simple, no forzar al usuario a tener que hacer más clics, esperar más tiempo, más consumo de datos, etc, es decir, peor experiencia.

El propietario del sitio además recibirá una notificación en la herramienta Search Console para corregir esta situación lo antes posible. Te recomiendo que vigiles el tráfico de búsqueda desde la opción de analítica: apariencia en el buscador -> resultados enriquecidos de amp.

Aquí puedes ver algunos casos de éxito donde el sitio tiene una total integración de su contenido a formato AMP.

Fuente Official Google Webmaster Central Blog: “Engaging users through high quality AMP pages”

Nueva ventana target=”_blank” rel=”noopener noreferrer”

Desde el pasado mes de abril de 2017, el cms WordPress bajo su versión 4.7.4 , añade una nueva relación a los enlaces externos que se abren bajo nueva ventana. El objetivo de esta medida es atajar la vulnerabilidad que supone la apertura de un link bajo target=”_blank”.

Explicado según el sitio de ayudawp.com en su artículo “La vulnerabilidad target=”_blank” y la solución rel=”noopener noreferrer” de WordPress”:

… cuando haces clic en una web para abrir una página nueva, y se abre en una nueva pestaña, si luego vuelves a la web original, sin que tú te des cuenta se cambia automáticamente esa página falsa que simula ser la buena.

Con este proceso de vulnerabilidad, podrías estar dando tus datos de registro, etc. a una url que en realidad no es la oficial que estabas buscando.

Lo que ocurre ahora en WP (si lo tienes actualizado) es que con los enlaces externos que se abren en nueva pestaña bajo el formato target=”_blank”, se añade automáticamente  la propiedad de relación para el enlace rel=”noopener”.

¿En qué consiste rel=”noopener noreferrer”?

La relación de enlace rel=”noopener”, está dirigida para Chrome y el funcionamiento según la página de desarrolladores de Google es:

Cuando tu página tiene un vínculo a otra página mediante target="_blank", la página nueva se ejecuta en el mismo proceso que tu página. Si la página nueva ejecuta JavaScript pesado, el rendimiento de tu página también puede verse afectado.

Además, target="_blank" también es una vulnerabilidad de la seguridad. La página nueva tiene acceso a tu objeto window por medio de window.opener y puede trasladar la página a otra URL usando window.opener.location = newURL.

Además se añade  rel=”noreferrer” para el navegador Firefox, ya que no entiende la relación anterior noopener.

¿Añadir rel=”noopener noreferrer” a mis enlaces externos afecta al SEO de mi página?

“nope.”

Así respondió John Mueller en twitter ante la pregunta de Dawn Anderson:

Además, aunque sabemos las implicaciones SEO que tiene añadir la propiedad “nofollow” a un enlace, el hecho de que WP añada “noopener”, ¿tendría algún efecto sobre ello? no, se trata de un simple enlace visto a ojos de Google.

Así quedaría un enlace con todas las propiedades añadidas:

<a href=”https://enlace” target=”_blankrel=”nofollow noopener noreferrer>anchor text</a>

NUEVO – Desde la herramienta para desarrolladores de Chrome ,si realizas una auditoría de la página o si directamente añades la extensión para Chrome de “Lighthouse“, podrás ver en el apartado de “Best Practices” que realmente recomiendan la implementación de esta acción en aquellos enlaces que se abren como ventana nueva (target blank) para mejorar la parte de usabilidad y consumo de contenido añadiendo más seguridad.


Más información: