¡Hola a todos y a todas! Dean por aquí. El autor invitado de hoy es mi buen amigo (¡y aún mejor consultor SEO!) Luis Revuelto. Uno de mis socios de servicios SEO al cual le derivo servicios (y esto es por algo, nunca lo haría con cualquiera).
Luis es un consultor SEO de raza. De esos completamente vocacionales y que viven por y para sus clientes. Maneja con excelente maestría un buen elenco de herramientas SEO con las que es capaz de hacer bailar a las webs en los buscadores.
En esta ocasión viene a contarnos como trabaja un consultor SEO profesional con la nueva interface de Search Console que todos tenemos desde hace relativamente poco tiempo.
Dicen que un SEO no es un SEO completo hasta que no controla a la perfección Search Console en el día a día y esto es verdad, no es un frase que haya pintado yo aquí porque suene poética; aprender a trabajar bien con la herramienta gratuita que nos brinda el propio Google es el ABC del SEO y todo empieza por ella.
Después de este post sabrás sacarle aún más provecho.
¡Os dejo con Luis!
Índice del artículo
¿Estás harto de recibir notificaciones de Google Search Console y no saber cómo actuar? ¿Quieres que tu web o blog levante el vuelo tras haber perdido una gran cantidad de tráfico orgánico? Pues sigue leyendo, porque creo que esto te va a interesar.
Este artículo está enfocado a personas como tú, autodidactas en el mundo del SEO, que quieren recuperar el estatus que han perdido tras las últimas actualizaciones de Google.
Por eso quiero explicarte la importancia de las notificaciones de Google Search Console, y ayudarte a sacarle partido a esta herramienta. La cuál, en combinación con una herramienta SEO “all in one” (SEMrush por ejemplo, que es con la que yo trabajo), te ayudará a recuperar el tráfico perdido o a mantener tu tendencia positiva.
La Nueva Search Console
Si tienes tu web registrada en Google Search Console, cosa que te recomiendo, seguramente lleves desde principios de año recibiendo continuas notificaciones. Que si te presentamos la nueva versión, que si se han detectado problemas en la cobertura del índice…
Cuando uno ve este tema de la cobertura del índice, lo primero que piensa es. ¡¿WTF?! Lo que en castellano se traduce a un: “¿Qué…me estás…contando, Google?
Pues este tipo de notificaciones, son más importantes de lo que parecen. Porque se refieren a cómo Google está tratando tu sitio web en el proceso de rastreo e indexación. Que son determinantes en la tercera de todas las fases del algoritmo de Google, la que más nos interesa, el ranking.
Vayamos por partes, veamos qué nos ofrece esta “nueva” herramienta.
La nueva Interfaz
Como puedes ver, la nueva versión de Search Console, tiene una interfaz más limpia y amigable. Punto a favor.
Aunque por ahora posee solamente 2 funcionalidades verdaderamente relevantes: Los informes de Rendimiento y Los Informes de Cobertura del índice. Punto en contra, si lo que quieres es dejar de utilizar la versión antigua.
Informes de Rendimiento
En los informes de rendimiento encontrarás los principales indicadores, que muestran cómo está funcionando tu sitio web en las búsquedas orgánicas.
- ¿Cuántas visitas has recibido de búsquedas en Google? (Clics totales)
- ¿Cuántas veces apareció tu web en dichas búsquedas? (Impresiones totales)
- ¿Qué porcentaje suponen tus clics en base a esas impresiones? (CTR medio)
- ¿Qué posición, de media, han ocupado las queries que han arrojado esos datos? (Posición media)
Básicamente, es la misma información que tienes en los informes de Analítica de búsqueda, en la antigua Webmaster Tools de Google. Pero con algunas diferencias importantes:
- La interfaz es más clara y visual. En lugar de un checkbox para seleccionar los indicadores que quieres ver, los tienes por pestañas, bien identificadas con sus códigos de colores.
- El período de tiempo es ilimitado. Si conocías un poco la herramienta, sabrás que uno de los grandes inconvenientes, era que el período de datos disponible nunca era superior a 3 meses. Por lo que, al contrario que en Google Analytics, no podías tener un histórico amplio para extraer conclusiones. Ahora eso ha cambiado.
También están introduciendo nuevos filtros desde la nueva versión, de cara a organizar la información por el tipo de resultados. Por ahora tienes los filtros: Consultas, Páginas, Países y Dispositivos. Que, para lo que vamos a ver hoy, tenemos filtros más que de sobra.
Informes de Cobertura del índice
Veamos ahora los Informes de la famosa Cobertura de índice. Donde verás las páginas que se están indexando y las que no (por diferentes motivos).
Como ves, tienes 4 tipos de estado de las páginas que Google va rastraendo de tu sitio:
- URLs con errores
- URLs válidas pero con advertencias
- URLs válidas
- URLs excluidas
Esta información, nunca antes la habíamos tenido. Teníamos que conformarnos con los Errores 404 y los informes de Estado de Indexación (poco más que la cifra de páginas indexadas, que también puedes sacar tú mismo utilizando en Google el comando “site:tudominio.com”).
Pero con esta nueva funcionalidad, tienes un análisis detallado de cómo trata Google tus páginas. Que además añade una función interesante que veremos a continuación: la comparativa de tendencia en número de páginas indexadas con respecto al número de impresiones. Ojo con esto porque es fundamental.
Cómo aprovechar la info. de los Informes de Rendimiento
Lo primero que voy a contarte, es cómo aprovechar los datos del informe de rendimiento, que es algo que puedes aplicar con la versión antigua, pero con el hándicap del período de 3 meses.
Para ello abre el informe de rendimiento y selecciona todos los indicadores (clics, impresiones, CTR y posición media). En la parte inferior encontrarás una tabla con información clave organizada por filtros como te decía en el apartado anterior.
1. Utilizando el CTR…
Ve a la tabla inferior, selecciona el filtro/pestaña de consultas y ordena por impresiones de manera descendente (también puedes descargar el archivo). Esto te dará un listado de keywords con mucho tráfico potencial.
Identifica las consultas que tienen un porcentaje de clics (CTR) menor que la media del sitio (CTR medio).
Si paralelamente estas consultas (o queris) además de tener pocos clics tienen muchas impresiones y están en primera página (aunque sea en la parte de abajo del todo, cerca del Top 10)… ➔ son keywords con las que estás perdiendo, a priori, una oportunidad valiosa de obtener visitas .
Ojo, si tu blog tiene una trayectoria y se han publicado ya muchos contenidos, aquí te vas a encontrar de todo.
Puede ser que aparezcas para keywords que no tienen nada que ver con tus contenidos pero hay términos en tu web con los que coinciden.
Puede ser que te encuentres con impresiones de búsquedas por marca de algo por lo que nunca vas a aparecer en Top 1.
Puede ser que haya consultas cuya intención de búsqueda esté enfocada a una canción o a una película.
Por lo que tienes que ser hábil identificando las que te interesan. Te pongo un ejemplo de un blog de viajes con un largo recorrido.
En color rojo puedes ver una búsqueda por marca que hacen los usuarios que quieren leer un diario online sobre economía y mercados(“5 días”). Por tanto, no interesa.
Ante la duda, no tienes más que hacer la búsqueda en Google y comprobar si alguno de los 3 primeros resultados se puede equiparar con el contenido que ofreces tú para esa búsqueda.
Sin embargo, sí tiene sentido aparecer en primeras posiciones para la búsqueda “aurora boreal Islandia”. Porque, viendo los resultados que están en Top 3, en este caso sí que podemos competir con nuestro contenido informativo con los principales resultados.
Ahora pasarías a ver qué contenido has rankeado para esa consulta. Para ello, no tienes más que hacer clic en la fila de la consulta y posteriormente seleccionar la pestaña “Páginas”.
Con la consulta y URL ya identificadas, tendrás que optimizar tu contenido. Se trata de mejorar la experiencia de usuario, para mejorar en consecuencia el CTR (más abajo te explico cómo) y gracias a ello escalar posiciones en los rankings.
Si tienes varias páginas diferentes rankeando por la misma consulta, entonces tienes un problema de canibalización SEO.
También es posible que haya varias URLs válidas. Por ejemplo, URLs generadas por los enlaces dentro de sección de las tablas de contenido (TOC), como en el ejemplo de la imagen.
Te dejo este pequeño vídeo donde explico cómo trabajar este punto con el ejemplo anterior.
2. Utilizando la posición media…
También es interesante identificar las consultas que tienen un buen CTR pero una mala posición (entre la posición 10 y la 30). Para lo cuál podemos ordenar por Posición media o por CTR hasta encontrar este tipo de queries.
En este caso, se trata de encontrar las keywords que obtienen una buena respuesta del usuario, tienen posibilidades de competir, pero no tienen suficiente relevancia. Es otro patrón que tenemos que buscar dentro de la nueva Search Console.
Repetiríamos la operación anterior. Resumiendo:
- Identifica cada consulta que realmente interesa
- Identifica la página que estás ofreciendo para dicha consulta
Te dejo el vídeo con el ejemplo para que lo veas mejor…
En este tipo de consultas con buen CTR pero mala posición media, lo más interesante es que consigas enlaces externos.
3. ¿Cómo mejorar el CTR y Posición Media de tus keywords?
- Fíjate en el contenido de la competencia (los que aparecen más arriba en los rankings). Cosas como: si incluyen apartados que tú no incluyes (respondiendo a lo que la audiencia demanda), si está bien maquetado, si tiene imágenes, si tiene vídeo… Lo principal es conseguir la mejor experiencia de usuario posible cuando éste llegue a la página.
- Optimiza el contenido semántico utilizando la información de las herramientas SEO, como cuenta Dean en su mega tutorial de SEOLyze
- Mejora tus metaetiquetas Title y Description. Necesitas conseguir que los usuarios hagan clic en tu resultado, en lugar de hacer clic en el resultado de la competencia. Crea títulos y descripciones atractivas para conseguirlo. Puedes entrenar con la famosa aplicación online SEOmofo o ya incluso los propios plugins de SEO habituales te permiten ver una previsualización de cómo quedará tu snippet en las SERPS.
- Utiliza tablas de contenido (TOC) para intentar conseguir destacados en las búsquedas, como cuenta Alex Serrano en este artículo.
- Incluye enlaces a contenido relacionado interesante, para mantener a los usuarios en tu sitio cuando lleguen a él tras una búsqueda en Google. Esto te sirve para evitar el rebote y conseguir por tanto buenos indicadores de experiencia de usuario.
- Incluye, desde otras páginas de tu web, enlaces internos hacia el contenido que estás optimizando. Debes utilizar la keyword que quieres subir, en el texto de ancla de dichos enlaces. Eso sí, te recomiendo que no utilices siempre el mismo texto de ancla. Puedes encontrar buenas variaciones a la consulta principal, por las cuáles ya estás rankeando, también a través de este informe. Para saber cuáles son, cuando estés en la pestaña Páginas, selecciona la URL a optimizar, asegúrate de eliminar el filtro de Consulta (porque solamente te mostrará la consulta seleccionada) y ve de nuevo a la pestaña “Consultas”.
- Consigue enlaces externos para aumentar la autoridad de dicha página. Potencia también, en la medida de lo posible, el texto de ancla de la keyword a potenciar, en dichos enlaces.
Una vez actualizado el contenido, lo movemos por nuestra comunidad (redes sociales, newsletter…) y se lo enviamos de nuevo al índice de Google a través de la Consola.
4. ¿Qué puedes hacer para conseguir enlaces externos?
Utiliza los footprints o comandos de búsqueda avanzada de Google. La idea es mejorar la relevancia en buscadores de dicha URL a través de sitios externos de referencia. Puedes encontrar páginas donde se esté hablando sobre el tema concreto que representa esa keyword (foros, blogs…etc.), para participar ofreciendo tu contenido.
Con estos comandos de Google, puedes por ejemplo encontrar páginas que sean foros, donde se esté hablando de la keyword que quieres potenciar (ej.”Aurora Boreal en Islandia”):
intitle:aurora boreal Islandia inurl:foro
O más enrevesado todavía, encontrar páginas que tengan las palabras que componen tu consulta en el título, y sean blogs donde se puede comentar dejando tu web:.
comment website intitle:aurora boreal Islandia
Este tipo de enlaces, a pesar de que muchas veces son de tipo”nofollow”, tienen la particularidad de que suelen traer tráfico residual y ayudan a mejorar tanto la Posición media como el CTR.
Cómo aprovechar los informes de Cobertura del índice
En los informes de cobertura del índice encontrarás muchas pistas sobre el motivo de una hipotética pérdida de posiciones tras cambios en Google. Porque puedes ver cómo Google está tratando las páginas que se encuentra en el proceso de rastreo.
Hoy día considero que estos informes son clave para saber qué está sucediendo con tu sitio web, si has perdido visibilidad tras una actualización. Ya sea una actualización del algoritmo de Google, o incluso una actualización de tu sitio web (estructura, metainformación…).
Veamos cómo exprimir esta información que recibimos acerca de nuestras páginas.
Revisa la tendencia
Abre el informe de cobertura del índice, marca cada uno de los estados (Error, Válidas con advertencias, Válidas, y Excluidas) y marca el checkbox de impresiones.
Aquí está la gran diferencia con la versión anterior.
Ahora puedes comprobar cómo han ido evolucionando las impresiones en los últimos meses en comparación con los errores, advertencias o páginas válidas . Si has conseguido menos tráfico o visibilidad, lo más probable es que tus páginas hayan aparecido menos (menos impresiones).
Lo que queremos es inferir hipótesis a partir de la tendencia. En condiciones normales, las páginas válidas (páginas indexadas) van aumentando a la vez que aumenta el número de impresiones.
Puede que estés perdiendo visibilidad porque las páginas que Google rastrea tienen errores. Aunque si no tienes errores ni advertencias, tampoco te puedes relajar. Es posible que aumenten las páginas excluidas a la vez que disminuyen las impresiones y esto también es mala señal. Probablemente el robot de Google esté dejando de indexar páginas que sí deberían estar en sus índices.
Puedes encontrar que el número de páginas Válidas no ha aumentado pese a estar publicando contenidos, en su lugar aumentan las Excluidas. Y resulta que cuando te vas a las Excluidas, te encuentras con URLs que quieres indexar, pero tienen una etiqueta “noindex” (le dice a Google que NO indexe la página) que desconocías.
Debajo de la gráfica, se te presenta una tabla con el tipo de estado seleccionado. Para cada estado, hay una explicación de Google de lo que ocurre con esas páginas. Haciendo clic en la fila de cada explicación (Motivo), encontrarás un listado de ejemplos de URLs que tienen ese problema.
Si tu sitio es muy grande no te los dará todos, pero sí los suficientes como para decidir qué hacer con todas las páginas de esa tipología, para poder solucionar el error.
Debes examinar error por error y aplicar la solución utilizando la información que el propio Google nos presenta aquí. Lo bueno, es que para cada URL, puedes ver más información a través de una serie de herramientas:
- Probar si está bloqueada en archivo robots.txt (un error muy común)
- Explorar como Google (para comprobar si tiene algún problema de procesamiento o alguna redirección)
- Ver como resultado de una búsqueda (para ver la info. que se muestra en el snippet de Google)
- Enviar al índice (si no se ha indexado pero es correcta)
Una vez estés convencido de haber resuelto todos y cada uno de los errores de cada casuística, puedes enviar a Validar la corrección.
Te dejo también con un pequeño vídeo de ejemplo sobre el uso de los informes de cobertura del índice para aprovechar la información disponible.
Caso Práctico Gtmdreams.com
Veamos un ejemplo donde se detectó una pérdida de visibilidad en Google, según las estimaciones de la herramienta SEO SEMrush. Se trata del blog de viajes, GTMDreams.com.
Todo parecía marchar bien, hasta que en un momento dado dejan de aumentar las páginas válidas, a pesar de estar publicando nuevos contenidos, y lo que aumentan son las páginas excluidas. Situación donde Google Search Console nos grita que algo malo está pasando y tenemos que actuar.
Gracias a los informes de Cobertura del índice, nos damos cuenta de que algo no funciona. Porque conforme las páginas excluidas aumentan, las impresiones disminuyen.
Por lo que parece probable que haya páginas importantes para SEO, pero que Google está descartando y excluyendo de su índice.
Cómo averiguamos qué ha pasado con Gtmdreams.com
1. Marcamos en una línea de tiempo los eventos relevantes
Lo primero que hacemos es crear anotaciones en Google Analytics para recopilar toda la información disponible. Te doy ideas:
- Actualizaciones del algoritmo de Google
- Alternaciones en los rankings según las herramientas SEO
- Sucesos importantes vistos en los informes de cobertura del índice (alteración en las impresiones, páginas válidas, páginas excluidas)
- Sucesos importantes vistos en los informes AMP de la nueva Search Console, si lo tienes
- Cambios de diseño en el sitio web
- Cambio de hosting
- …etc.
Todo, toda la información que nos pueda dar pistas, es bienvenida.
2. Analizamos la información
Es importante analizar y comparar la tendencia de visitas que vemos en Google Analytics, así como la tendencia que vemos en las herramientas SEO. En el caso de gtmdreams.com, todo comienza en Marzo.
Visibilidad según SEMRUSH para Escritorio:
Visibilidad según SEMRUSH para Dispositivos móviles:
Visibilidad según SERPSTAT:
En realidad el tráfico SEO aumentó en marzo según los informes de Google Analytics. Pero es importante advertir los cambios de tendencia que nos muestran las herramientas SEO. En este caso, era claro que teníamos un problema desde finales de marzo.
Volviendo a la gráfica del informe de cobertura del índice, podemos extraer hipótesis.
Lo primero que vemos, es que un momento dado, empiezan a aumentar las páginas excluidas y disminuyen ligeramente las válidas. En ese momento disminuyen las Impresiones Globales ➔ pérdida de tráfico web.
¿Qué pasa con las páginas excluidas?
Marcamos la pestaña “Excluidas” para ver qué páginas son las que Google no quiere indexar, así como el motivo. En este caso, el número de mayor de páginas excluidas tiene el estado “Página alternativa con etiqueta canónica adecuada”. Esto significa que éstas páginas tienen, en su código fuente, una etiqueta que sirve fundamentalmente para evitar contenido duplicado. Y lo que hace es decirle a los robots de rastreo, cuál es la página que se debe indexar en caso de encontrarse con páginas muy similares.
En este caso, la mayoría de las páginas excluidas (508) son páginas de tipo AMP (Páginas Aceleradas para Móviles). Google las ha excluido porque las versiones AMP de las páginas de este sitio, tienen una etiqueta canónica que indica que la versión a indexar es la versión clásica (No AMP). Esto en principio es correcto, porque la versión que más nos interesa es la versión clásica.
Revisando el resto de errores, nos encontramos con lo siguiente:
- Páginas con etiqueta noindex: Las que hemos excluido nosotros porque no eran relevantes para SEO.
- Páginas con redirecciones: Las que no se indexan porque, las que se deben indexar, son las nuevas páginas a las que apuntan.
- Páginas bloqueadas en Robots.txt. Ojo con bloquear el acceso de los robots a un determinado directorio, si en algún momento le estamos dando indicaciones a los robots de lo contrario a través del Sitemap, o bien a través de enlaces internos o de enlaces externos. Es una incoherencia que lleva a los robots a intentar rastrear una página que en realidad no pueden rastrear. Por lo que si no estás seguro de si estás enviando los robots a un determinado directorio, es mejor desbloquearlo en Robots.txt
- Páginas con error 404: Las que debemos redireccionar a la nueva. Son muy poquitas, poco más de 20.
- Páginas que no ha indexado todavía.
- Páginas con un error Sotf 404: Son algunas páginas privadas que deben llevar el atributo “noindex” para que Google no las intente indexar. También muy poquitas.
¿Qué pasa con las páginas válidas?
Vamos a ver qué pasa con las páginas válidas (indexadas). ¿Están indexándose todas? ¿Están indexándose demasiadas?
Para saberlo vamos a contar el número de URLs que nosotros estamos generando. Actualmente tenemos publicadas 399:
- 290 entradas
- 32 categorías
- 64 etiquetas
- 13 páginas
¡Pero Google están indexando 773 páginas! Por tanto hemos encontrado un posible problema. Porque prácticamente solo la mitad de las indexadas, son páginas que queremos indexar.
Por tanto, nos vamos a descargar el fichero y examinamos de dónde sale el resto de páginas.
En este caso, podemos comprobar que hay paginaciones y tags (apenas 50 URLs en total) y URLs con formatos peculiares, que en este caso muestran básicamente una imagen.
“https://gtmdreams.com/que-ver-en-busan-viajar-corea-del-sur/36222973732_a28689cc35_k/”
Son las llamadas Attachments, URLs que WordPress genera al almacenar medios (principalmente imágenes) en su base de datos. Estas sí suponen un porcentaje muy alto (más del 50%) de las páginas válidas, 423 en total.
Teóricamente, el plugin SEO Yoast tal como lo tenemos configurado, debería redireccionarlas a la URL completa de la propia imagen y que ésta se indexe en Google Imágenes. Pero desde la actualización del plugin a la versión 7.0, estas URLs no se redireccionaron correctamente por un bug.
Con lo que nos encontramos que, además de la URL de la imagen:
“https://gtmdreams.com/wp-content/uploads/2017/10/36222973732_a28689cc35_k-1170×780.jpg”
Hay una URL vacía de contenido, con tan solo una imagen que ya ha sido rastreada y sin ningún valor para SEO (Thin Content).
¿Estará Google aprovechando el Crawl Budget con este tipo de URLs?
Para comprobarlo nos vamos a la estadísticas de rastreo utilizando la versión antigua de Search Console (todavía tenemos que esperar para utilizar solamente la nueva versión).
¡Aquí está el problema!
Están disminuyendo poco a poco las páginas rastreadas al día. Al tener un gran número URLs que son imágenes y no aportan un valor añadido, Google va a desperdiciar el Crawl Budget descargando URLs vacías de contenido de valor.
Si te fijas, el número de kilobytes descargados al día, de media, es constante mientras el número de páginas rastreadas al día disminuye poco a poco. Lo cual encaja con el hecho de que el número de páginas válidas no suba (casi baja). No se aporta valor añadido y no se van añadiendo las nuevas páginas.
Esta rastreando continuamente las malditas páginas de medios. Que son las que representan mayor porcentaje del total válidas.
Solución
1. Redirección 301 de éstas a las URLs del post, para que cuando vuelva a rastrear estas URLs de attachments, el robot se entere de cuáles son las páginas con contenido de valor (en lugar de éstas).
2. Quitar la opción de Yoast de redireccionar a las URLs de las imágenes, para poder poner una etiqueta NOINDEX a las URLs de Attachments que genera WordPress (le decimos a Yoast que no muestre Medios en los resultados de búsqueda). De manera que no nos vuelva a hacer esta jugada con las nuevas imágenes que vaya rastreando.
3. Enviar el Sitemap, asegurándote que todas las URLs enviadas son correctas y no falta ninguna.
Como te decía, esto viene derivado de un bug de Yoast. Después de mucho insistir los usuarios de la herramienta premium en los foros de soporte, la empresa ha publicado un manual para poner solución a este problema. Dejo el link por aquí:
https://yoast.com/media-attachment-urls/
Como ves, incluso han sacado un plugin (que yo aún no he probado), para hacer que el proceso de rastreo de nuevas URLs y eliminación de URLs incorrectas sea más rápido. También te dejo el link:
https://wordpress.org/plugins/yoast-seo-search-index-purge/
Resultado
Aquí traigo algunas capturas los resultados de aplicar estos cambios, que evidentemente no han llegado al día siguiente, sino casi un mes después. Estuve tentando de utilizar la herramienta que ha sacado Yoast para acelerar el proceso de desindexación de URLs de baja calidad. Pero preferí hacer los cambios manualmente para acotar el error y pulsar el proceso natural de Google.
A partir del 1 de julio, Google reduce drásticamente el número de páginas válidas que tiene en su índice, dejándolo en 450 páginas. Una cifra que concuerda mucho más con el número de URLs que estamos generando (unas 400 en ese momento + las nuevas entradas publicadas desde esa fecha + alguna que otra URL que se haya colado). Lo más importante es que desde esa fecha podemos observar un incremento significativo en el número de impresiones, como puedes ver en el informe de Cobertura del índice. Esto se traduce en una mejora sustancial del posicionamiento orgánico.
SEMRUSH muestra un incremento significativo del tráfico estimado, gracias a un incremento del número de keywords en rankings, las cuáles aparecen más veces en las búsquedas (impresiones) y en una mejor posición.
Aunque para analizar el resultado lo mejor es ir directamente al informe de Rendimiento de la nueva Search Console.
Comparando los últimos 28 días con los 28 anteriores, el número de clics desde Google aumenta en casi 8.000, a unos 1.943 clics más por semana. Simplemente haciendo lo mismo que estábamos haciendo hasta ese momento: generar contenido y conseguir nuevos enlaces entrantes 🙂
Conclusión
Bueno, pues hasta aquí la prueba del potencial de la nueva Search Console. Recuerda:
La nueva versión por ahora no es excluyente de utilizar la vieja Google Webmaster Tools de toda la vida. Sería una locura hacerlo porque la nueva no tiene todas las funcionalidades.
La nueva versión es una herramienta imprescindible, que complementa a otras herramientas de SEO y Analítica Web que utilices, y es el mejor termómetro para comprobar como va tu web.
Con ella puedes conocer perfectamente cómo Google interpreta tu sitio y por tanto sacar conclusiones muy potentes de la relación entre la tendencia en las búsquedas orgánicas y los posibles problemas de rastreo e indexación.
Si piensas que Google está penalizando tu sitio y has perdido o vas a perder tráfico SEO, utiliza la nueva Search Console con los consejos que te hemos contado en este artículo.
Cerca de pole!!
¡Pole total! Has estado muy rápido 😉
Ya leído. Impresionante post!!!!
Mis felicitaciones.
Este es un ejemplo de superpost de invitado q aporta valor ( lo digo porque otros años a Dean le da por decir que los quita…. XD XD)
Jajajaja! cuanta razón! 😀
He tomado la determinación de que aporten muchísimo valor en lugar de quitarlos, nada de contenido de relleno (y con esto no me refiero a que otros años lo hayan sido, hay post buenísimos de años atrás con más de 200 y 300 comentarios) pero este año línea editorial al más puro estilo SEO, de amigos míos consultores y webmasters que se ganan la vida respirando el SEO a cada instante…
Dios, tengo mono de escribir en este blog…
Tremendo post
¡Muchas gracias Rayniel!
Enhorabuena por el post Luis! Das las claves para entender la “dichosa” cobertura del índice, los errores que se reciben y cómo solucionarlos.
Tengo un caso parecido al que comentabas con el caso de ejemplo y ya sé por dónde meterle mano.
Muchas gracias por compartirlo.
Un abrazo!
¡Genial Chus! Me alegra mucho que te haya gustado el post y te ayude con un caso como el del ejemplo. Creo que le ha pasado a muchos webmasters y había que contarlo.
Un abrazo
Hola! Está muy bien el artículo. La Search Console es una herramienta espectacular. Yo lo único que añadiría es que para poder analizar el Crawl Budget correctamente te hacen falta otras herramientas como puede ser Log Analyzer de Screaming Frog o analizar los logs directamente con Google Data studio o Tableau.
Saludos
¡Hola Roger!
Muchas gracias por tu comentario. Estoy de acuerdo en que los datos que nos da Search Console para analizar la actividad de los robots en nuestro sitio, no son los más preciosos. Pero nos sirve mucho para hacernos una idea de la tendencia y poder extraer hipótesis. La idea es mostrar el potencial que tenemos en una sola herramienta gratuita. Lo ideal siempre es complementar con otras herramientas, por ejemplo el analizador de logs de Screaming Frog que comentas. No he probado aún que tal funciona Data Studio para logs, y es algo que tengo pendiente. Así que me lo apunto como prioridad, porque me parece muy interesante mostrar el poder de las herramientas gratuitas 🙂
¡Muchas gracias!
Venga lo voy a aplicar TODO! 😀 jajaja, muchas gracias por el artículo que grande! yo ya me estaba liando con la nueva así que genial 😀 me viene de lujo!
¡Genial! Cuando lo pruebes nos cuentas qué tal. Verás lo bien que te resulta utilizar la nueva versión con frecuencia 😉
Fantástico post Luis. La verdad es que SC tiene un potencial enorme si la sabes utilizar de forma correcta, y gracias a este artículo he aprendido muchas cosas.
Una duda que siempre he tenido es que cuando SC te muestra que posicionas para una keyword que no pretendías atacar pero por semántica o lo que sea la relaciona con tu artículo, ¿cómo procedes en ese caso? Si es una keyword “interesante”, ¿haces un artículo atacando esa keyword o tratas de añadir algún párrafo u optimizar el artículo que ya tienes y por el que aparece esa keyword en cuestión? Espero haberme explicado, jejeje.
Otra cosa que hago es ir pagina a página (artículo a artículo) de una web y ver las long tail que más impresiones tiene y usarlas como anchor para el enlazado interno y externo. ¿Eso estaría bien?
Un abrazo!
¡Hola Miguel!
En el caso de que esa keyword realmente esté relacionada con tu artículo y puedas satisfacer con él a la intención de búsqueda del usuario (como ves en el artículo, siempre hay keywords que no tiene sentido atacar, en el ejemplo que te contaba, la keyword “5 días”), yo te recomendaría trabajar sobre el propio contenido, completándolo con información interesante. Es decir, optimizar el post que ya tienes publicado, por la sencilla razón de que esa URL ya está rankeando y siempre será más fácil mejorar su posición (además que con otro artículo nuevo lo que harías sería canibalizarlo). Ahí es donde entra la parte de mejorar CTR y Posicion Media que explico en el post (amplias el post, le metes semántica de esa keyword utilizando SEOLyze, nuevos apartados, le metes enlaces con ese texto de ancla…etc.). No sé si me he explicado yo, jeje.
Claro, utilizar las keywords que tienen más impresiones como texto de ancla de los enlaces internos (y externos) es lo suyo (de hecho creo que también lo comentaba en el post). Porque es la forma más natural de enlazar de cara a Google (utilizando para enlazar el texto que los usuarios están considerando más relevante para ese contenido, de las opciones que Google le ofrece). Para ver desde dónde enlazar internamente, también te recomiendo usar en el buscador la keyword + site: tudominio.com para ver qué páginas tienen más relavancia en Google para esa consulta (te las muestra por orden de importancia).
Utilizando esta dinámica de trabajo, para conseguir enlaces y potenciar el contenido de tu web, te evitas problemas de penalizaciones y mejoras mucho en los rankings a medio y largo plazo.
Un abrazo
Te has explicado perfectamente Luis, jejeje.
Cuando te comentaba lo de las keywords que aparecen en SC es porque me ha pasado en un blog que tengo sobre un tratamiento de belleza, que luego posiciono también por keywords que a priori no tienen relación con ese tratamiento en cuestión, es decir, son tratamientos o técnicas diferentes. De ahí mi duda de si crear un post nuevo para esa keyword y quizás sacar un enlace interno desde ese post que me marca SC hacia el nuevo que creara para dejarle claro a Google qué artículo debe posicionar para esa nueva keyword. Pero igual es un error mío de concepto :-).
Tendré en cuenta todas las sugerencias que me has hecho en la respuesta anterior y las pondré en práctica ya mismo. Muchísimas gracias por responder.
Un abrazo!
Hola Luis,
Muchas gracias por el artículo, me ha parecido muy interesante!! 🙂
Tengo una duda respecto la configuración de Yoast. En sus guías oficiales mencionan que lo ideal es que la opción esté en “Sí”, de forma que redirecciona las imágenes. ¿Cuál es el motivo por el que tú recomiendas lo contrario?
Muchísimas gracias!
¡Hola!
Te explico. Anteriormente en Yoast se redireccionaba por defecto a la URL del post al que pertenecía la imagen. Pero a partir de la versión 7.0, pensaron que sería más lógico redireccionar a la URL de propia imagen (la cuál se rastrea solamente para Google imágenes), lo cuál es una buena idea teniendo en cuenta que una imagen puede pertenecer a varios posts. Pero en el salto a esa versión, se dejaron URLs de attachment sin redireccionar a ninguna parte y con la etiqueta por defecto “index”. Lo que yo recomiendo es poner la opción en “No redireccionar”, para que Yoast nos permita colocar el “noindex” (No mostrar en los resultados), cosa que no se puede hacer si la opción está en Sí. Ojo, no es malo redireccionar a las URLs de las imágenes, el problema es tener URLs de attachment donde no funciona la redirección y sí son indexables. No sé si me explico. Solamente recomiendo No redireccionar en el caso de que notes que tienes una gran cantidad (ej. más del 30%) de URLs indexadas de este tipo. Porque tendrás que decirle a Google que no las indexe.
Si no las ha llegado a indexar (revisa los informes de Cobertura del índice), no tienes problema. Puedes dejarlo como recomienda Yoast en su documentación.
Gracias a ti por comentar.
Saludos
Hola muy buen post, pero en mi search console Beta, la columna de posición en rendimiento consultas, no aparece, en cambio en la versión anterior si aparece, sabes porque? He intentado hacer mas pequeña la columna del menú de la izquierda pero no se puede. Gracias
Hola José María
Sí, tienes que marcar la columna posición en la gráfica de arriba, para que te vaya apareciendo en la tabla de abajo. Pero ten en cuenta que si lo tienes puesto en modo “Comparar”, es posible que no se te vea correctamente porque está pensado para 4 columnas máximo. Esto es algo en lo que deben mejorar la beta 🙁
Un saludo
Hola. Excelente post! Me ha gustado mucho. Soy un newbie en este campo. Mi duda es la siguiente: si no uso Yoast y Google está indexando páginas vacías por medio de las imágenes, ¿el error está en la configuración de WordPress? ¿Cómo se debería proceder en este caso? ¿La solución es la redirección o la desindexación? Gracias desde ya.
¡Hola Gabriel!
El error estaría en la configuración de Yoast. Ojo, las URLs de imágenes, Google las indexará para Google Imágenes. Son las URLs “attachment” las que no se deberían indexar porque no aportan nada. Así que tienes 2 opciones:
– Redireccionar estas URLs a la URL de la imagen (si Google no las indexado aún)
– No redireccionar y decirle a Yoast que no quieres que se muestren en los resultados (opción que te coloca automáticamente un “noindex”)
No sé si me he explicado, si te quedan dudas me dices 🙂
Un saludo
Hola Luis:
Excelente guía, lo que más me ha gustado es que por fin he logrado aprender a interpretar correctamente la sección Estadísticas de rastreo. Además, queda más que comprobado que si tienes un sitio web o gestionas para clientes, es imprescindible estar conectado a esta herramienta.
Muchas gracias por tu explicación tan amena y didáctica con ejemplos de proyectos reales.
Saludos para ti y para Dean!
¡Muchas gracias Juan!
Me alegra mucho que te haya gustado. Es fundamental manejar esta herramienta hoy día para saber lo que ocurre con tu sitio en Google 🙂
Un saludo
Me alegra mil que te haya sido útil Juan!! 🙂
La nueva Search Console es una imprescindible del SEO y creo que este post es necesario para todos aquellos que quieran manejarla como lo hace un Pro como Luis Revuelto
otro para ti crac!
Gran post Luis! Desde luego hacía falta un tutorial en internet con la nueva interfaz de Google Search Console. Enhorabuena!
Pese a que la nueva versión de GSC es la ost** yo sigo de momento fiel a la antigua versión para cosas como la Analítica de Búsqueda, que el voy a hacer, soy un bohemio. De todos modos, que la nueva versión te de datos a más de 3 meses es fundamental (bueno y que te indique los problemas de indexación, etc).
La verdad que todo SEO que se precie debe de manejar a la perfección esta herramienta tal y como comenta Dean. Que encima te la da Google “por la face”.
Como aporte a este pedazo de post diré que si combinas Search Console con la extensión para Chrome “Keyword Everywhere” podrás conocer además los volúmenes de búsqueda (y CPC) oficiales de Google Adwords para cada palabra clave posicionada en la parte de Analítica de Búsqueda de GSC. Esta combinación hará que tengas una herramienta SEO muy potente de forma gratuita.
El único pero de esta extensión es que los volúmenes de búsqueda que te proporciona no están segmentados a un país en concreto. Por lo tanto, estos volúmenes son globales y no del todo exactos. Sin embargo, este combo te servirá para descubrir oportunidades de palabras clave muy golosas.
Un saludo a ambos cracks
¡Muchas gracias Borja!
Pues muy buen aporte, la extensión Keyword Everywhere es un gran complemento para tener más info. a la hora de valorar atacar determinadas keywords que vemos en Search Console. La he probado alguna vez por recomendación y está genial. Aunque lo cierto es que yo tiendo a hablar de SEMRush porque es mi herramienta “all-in” favorita. Pero ya que estamos hablando de herramientas gratuitas, me parece un buen aporte.
Un abrazo
Un artículo muy bueno Luís. Enhorabuena!!
Por cierto, Borja, he descargado la extensión Keyword Everywhere. Está genial tener el número de búsquedas en search Console para las palabras clave que rankean…!!! Sobre todo a los que manejamos herramientas gratuitas. Gracias!!! Aunque me surge una duda:
Al descargar las palabras clave de cada página para tener la información en mi excell los datos nuevos del volumen, el cpc y la competencia no me los descarga…¿es que no lo hace o estoy haciendo algo mal?
Muchas gracias!!
Esto se debe a que la extensión es un extra no oficial de Google Search Console. Por lo tanto, te va a ser imposible descargarte el Excel junto con los volúmenes de búsqueda de la extensión.
Busca en Youtube porque alguna vez me suena haber visto algún tutorial para poder bajarte estas métricas junto con la hoja de GSC pero ahora mismo no lo encuentro.
Un saludo 😉
Doy fé de que cualquiera que trabaje con Dean es de fiar y sabe de que va el tema.
Buen post amigo. Estoy haciendo mis prácticas en nichos pequeños que tengo con las indicaciones que das aquí, veremos que tal la evolución..
Se echa de menos a Dean por aquí. Que llegue ya septiembre… Me pregunto una cosa, ¿leerá comentarios en la sombra???
¡Muchas gracias Rafa!
Pues mucha suerte con tus nichos, seguro que les dan un buen impulso poniendo en práctica estos sencillos consejos.
Apuesto a que Dean los lee en la sombra pero no nos dice nada. Es un “workaholic” 😀
HAHAHAHA
Hago control F y pongo mi nombre 😈😈😈 si me mencionas es como invocarme !
Es más, se cada vez que cualquier usuario habla de mi en cualquier foro o Twitter, tengo espías a sueldo, muajajaja
Hola, increíble post
Amigo cuantas páginas tienes vos aprox?
Gracias eres mi ejemplo a seguir
¡Muchas gracias Jhael! Mucha suerte con tu formación, trabajando duro seguro que consigues buenos resultados.
Un saludo
Gracias por la actualización, muy buen artículo. A veces cuesta trabajo adaptarse a los nuevos cambios.
¡Muchas gracias Carlos! Encantado de que te haya gustado.
Un saludo
Luis era el mejor para hablar de este tema, toca la nueva Search Console desde el desayuno hasta después de la cena ;D
Hola! tengo una pregunta…
A mi me aparecen mas de 4000 urls excluidas, y me fije y son la mayoria PAGINACIONES.
paginaciones desde la propia home, de categorias, etc.
Esta bien dejar que google indexe todas las paginaciones? porque la nueva actualizacion de Yoast saco la opcion de poner en Noindex las subpaginas, porque dicen que es bueno para el SEO indexarlas. Diganme que opinan.
¡Hola Dario!
En principio te diría que no realices cambios sobre tu configuración actual. Si están excluidas seguramente sea porque el robot ha considerado que hay otra página “duplicada” que Google están considerando como canónica, probablemente la página principal de la categoría. Ya sea porque les tienes puesto etiquetas “canonical” hacia dicha página principal en todas ellas, o “noindex”, o bien porque el robot lo ha considerado así. Te recomiendo que utilices la nueva opción Inspeccionar URL para conocer más detalles: https://search.google.com/search-console/inspect
En principio yo no las indexaría porque lo normal es que sean URLs que pueden generar contenido duplicado o thin content, desperdician el crawl budget y diluyen el link juice. Pero es cierto que Yoast ha hecho varios cambios en relación a las noticias que venían de Google diciendo que el “noindex, follow” (no indexar pero seguir los enlaces) sería tratado a largo plazo como un “noindex, nofollow” (no indexar y no seguir los enlaces):
https://yoast.com/pagination-seo-best-practices/
Cosa que por otro lado es lógica. Tampoco puedes decir a Google continuamente que entre a rastrear una página que no quieres indexar.
Pero bueno, como ves en el post, Yoast también ha tenido sus cagadas. Para mí el criterio a seguir es que depende de si tus paginaciones aportan algo con respecto a la página principal de la categoría. Es decir, si son páginas con diferencias significativas de contenido entre sí (ej. productos bien diferenciados, con descripciones cortas, imágenes…etc.), sus URLs son limpias (sin usar parámetros), si fueran un porcentaje pequeño de las páginas de tu sitio web y demás, podrías valorar indexarlas. En tu caso no creo que sea muy lógico habilitar ahora de golpe 4000 URLs que tendrán probablemente un contenido muy parecido entre sí. Pero ante la duda, revisa el motivo por el que las ha excluido y revisa si todas las páginas que quieres indexar para atraer tráfico porque están bien optimizadas, sí están entre las Válidas.
Perdona el tocho de explicación, espero que te sea de ayuda 🙂
Un saludo
Pues siempre que me aparecía la nueva interfaz me iba a la antigua, después de leer este super post (gran curro detrás), empezaré a aplicar conceptos que no los tenía en cuenta. Muchas gracias por compartirlo con el resto de los mortales humildes del SEO.
Enhorabuena!!
¡Muchas gracias!
Me alegra mucho que el post haya servido para animarte a usar la nueva versión. Por ahora, tendrás que compaginarla con la versión anterior. Pero como ves, van sacando poco a poco nuevas herramientas interesantes, como la opción de Inspeccionar URLs 🙂
Un abrazo
Hola Luis,
Muchas gracias por el post, muy claro y explicativo. Pregunta: Tengo 180 URL indexadas, de las cuales 122 son válidas. El resto son “indexada, no enviada a sitemap”, en efecto al ver mi sitemap, no entran.
Estas urls que no entra, son de dos tipos: La primera de archivos en excel que ofrezco en mi blog. Actualmente se pueden descargar directamente desde Google, por lo que me gustaría incluirlo en el sitemap. ¿Cómo lo puedo hacer? Revisé el yoast pero no encontré la opción.
El otro tipo son “pages” de categorías y del blog que no sé si debería incluir o no en el sitemap, ¿qué opinas? Com pages me refiero a misitioweb.com/blog/page 2 ó misitioweb.com/categoria/page2. Revisé el yoast y no sé como quitarlo.
Por último, revisé mi robots y ví que tiene esta línea: Disallow: /comments/ ¿Qué tan conveniente es quitar el indexado de los comentarios?
Estoy dándole varias vueltas a la search console con la info que nos has suministrado, así que, muchas gracias.
Saludos!
¡Hola Diego!
Me alegro de que te haya gustado. Las URLs tipo “indexada, no enviada en sitemap”, son aquellas que el robot ha encontrado, pero que no estaban incluidas en el Sitemap que has enviado a Google. El robot ha encontrado enlaces a ellas y las ha rastreado porque le estaba permitido. Aclararte que sí entra a examinarlas y prueba de ellos es que están entre las indexadas.
Si quieres que los archivos en excel sean rastreables e indexables, tienes 2 opciones:
– Si lo que quieres es que se muestren URLs de tu web con un enlace al descargable Excel, te vas a Yoast > Apariencia en el buscador > Medios, le dices que No quieres redirigir las URLs de adjuntos a los propios adjuntos, y le dices que Sí quieres que se muestren en los resultados. Esto puede causar el problema que explico en el post, por contenido pobre (URLs donde el único contenido que hay es un enlace o una foto). Básicamente permite que se indexen estas URLs de Attachment y las añade al Sitemap.
– Si lo que quieres es simplemente que sean rastreables (cosa que entiendo que ya está haciendo), te vas a Yoast > Apariencia en el buscador > Medios le dices que Sí quieres redirigir las URLs de adjuntos a los propios adjuntos. Esta creo que sería la opción adecuada, porque no tienes URLs con contenido pobre. Sino que tienes solamente la URL del propio archivo, tipo “misitioweb.com/wp-content/uploads/2018/07/archivo.xls”.
En un sitio pequeño como el que tienes, no creo que te suponga un problema indexar la paginación. Pero si quieres quitarlo, puedes utilizar la Caja Yoast para incluir una URL canónica a la que apunten todas las páginas de paginación de las categorías a las que haces referencia (blog, categoría tal…etc.), para que la canónica a indexarse sea siempre la primera página.
Indexar los comentarios te puede generar contenido duplicado. Por lo que yo también los suelo quitar. Ojo, recuerda que lo que bloquees en Robots, no debe estar incluido en el Sitemap y debería tener un “Noindex”, para no causar incompatibilidades con la cobertura del índice.
Me alegro de que te haya sido de ayuda. ¡Mucha suerte!
Un saludo
Hola Luis, ¡Tremendo post!
Lo leí todo y a su vez con Search Console abierto para ver una web que esta sufriendo cosas raras que no doy con el lío. Pero este post me ayudo mucho y quiero hablarte de ello porque hay cosas que no sé como solucionar.
Mi web esta sufriendo casi lo mismo que la web de turismo que colocaste como ejemplo.
1.- En search console, veo que tiene mayor rastreo de páginas pero el robot no pasa tan seguido como quiero. https://prnt.sc/kbff8e
2.- Excluye muchas páginas que no tiene sentido como artículos actualizados, pero hay uno que me preocupa mucho que dice “páginas con redirección” https://prnt.sc/kbfiwm
3.- Doy clic en cualquier URL que indica el error y sale un cuadro a la derecha como el que muestras en el articulo https://prnt.sc/kbffn9 le doy inspeccionar y luego canonical y lo tilda como ok! pero aún asi veo que no lo quita.
Por último, tiene muchas URL excluidas https://prnt.sc/kbfgw7 le aplico lo mismo que dices pero no consigo solucionar.
¿Qué me podrías recomendar?.
Muchas gracias por los vídeos y tomarte el tiempo de hacer este pedazo de post épico.
Hola Tatiana,
Muchísimas gracias a ti por las felicitaciones, la verdad es que me alegra mucho que sea de utilidad y que os haya gustado. Te voy respondiendo.
1- Hay que ver qué tipo de páginas está rastreando. Ve a ver las Válidas y revisa que todas las que se dan por buenas lo sean. Es decir, que sean las páginas que quieres indexar porque tienes optimizadas para SEO. Utiliza la herramienta Inspeccionar URL que han añadido hace poquito para ver qué es lo que está sucediendo con cada URL. Te da toda la información para entender lo que está sucediendo con esa URL en concreto. Y visita la página de soporte de los Informes de Coberturas del índice, para entender mejor el estado de esas URLs: https://support.google.com/webmasters/answer/7440203
2- Es normal que excluya las páginas que tienen una redirección, porque lo que debe hacer es rastrear e indexar las páginas a las que apunta dicha redirección.
3- Si tienes páginas excluidas porque hay otras con “canonical adecuada”, ya sabes que Google indexará la URL que está puesta como canónica. Entra en el código fuente de tu página (CTRL+ U) y verás como la URL canonica sí está entre las indexadas. Si haces cambios, dale tiempo al robot para rastrear esas URLs. Recuerda que puedes enviar URLs al índice de Google directamente desde Search Console (versión antigua).
4- ¿Qué tipo de páginas están excluidas? Te lo digo porque es posible que sean las páginas de attachment si en tu caso tienes puesto un “noindex” como recomiendo en el post o bien si Google considera que hay otra URL donde está el mismo contenido y toma como canónica. No sé si me explico. Lo que debes hacer con las URLs excluidas es asegurarte de que no son páginas que quieres indexar y en caso de que lo sean, asegurarte que se pueden rastrear y enviarlas al índice de Google.
Y dale tiempo para que surtan efecto los cambios, Google tardará un poco en invertir la tendencia.
Muchas gracias por tus comentarios.
Un abrazo
Hola Luis,
Mil gracias por tu respuesta. Verifique todo como lo indicas y efectivamente las URLs tienen su canonical y las páginas son las que deseo excluir. Hay una parte que dice “Página duplicada sin etiqueta canónica” y sale estas páginas https://prnt.sc/kc7y2q ¿en este caso que tendría que hacer? he buscado información pero no logro dar con la respuesta.
La guia me ha servido de mucho, estoy currando esa web como nadie.
Saludos
la verdad es que no he utilizado la consola de google porque no la entendía bien.
Pero con estos apuntes que das, veo que tiene una gran posibilidad para mejorar el tema SEO
Gracias Dean
Tremendo post, estoy deseando que por fin terminen de implementar la versión nueva al completo porque es la bomba.
A ver si tienen en cuenta otras opciones de eliminación de errores que sea más efectiva, por lo que se ve promete ya que la interfaz, la usabilidad y los datos que ofrece son para llevar de la web casi perfecta.
Enhorabuena por el curro y lo práctico de artículo, a todo esto Luís, me enteré por casualidad que ¿eres o vives en Badajoz?
¡Hola José!
Muchísimas gracias por tus comentarios. La verdad es que creo que va a haber una apuesta fuerte por esta herramienta y va a servir para mejorar continuamente la calidad y facilitar al máximo el rastreo.
Vivo en Badajoz desde hace casi 3 años, aunque soy de Salamanca. Mi pareja sí es de aquí. Pero veo que tu dirección está muy cerca de donde yo vivo, así que cuando quieres nos tomamos un café e intercambiamos impresiones SEO, que siempre es gratificante, jeje. Tengo oficina en el parque tecnológico. Estás invitado 😉
Un abrazo.
Eso está hecho, a ver si pasa el verano que voy a estar por Badajoz muy poquito y sin falta echamos ese café por esa zona o me acerco al Parque tecnológico que también tengo otra visita pendiente por allí y seguro de que Seo hablamos…
Bueno, dejo de escribir, que Dean va a decir que si esto esto es un comentario de un post o un chat jaja.
Ya hablaremos 😉
un chat mola más!! creando conexiones!! jaja
Hola! Un saludo a la distancia.
En estos días me topé en Facebook con una publicidad sobre su curso Dispara Tus Visitas, donde da la posibilidad de pagar en 3 cuotas. Sin embargo me asalta la duda sobre 2 aspectos. En primer lugar me gustaría saber si dichas cuotas son para cancelar mes a mes y segundo que tiempo de validez tendrá esta promoción para saber si aún tengo tiempo de recaudar la primera cuota. Muchas gracias de antemano y espero su pronta respuesta.
Saludos!
si claro, pagarías al mes y la promoción es evergreen 🙂 dale caña cuando quieras
Impresionante post!!
Ahora entiendo mejor la consola de google… Hasta ahora sacaba algunas conclusiones a mi manera😉 pero ahora si que después de leer este mega post, sé cómo seguir trabajando con él.
👏Muchas gracias por aportarnos vuestros conocimientos, gracias Dean y gracias Luis!!
Fenómenos!!
Un saludo
Me alegra muchísimo este tipo de comentarios, de usuarios que tras leer el contenido aprenden cosas nuevas y les sirve para sus propios proyectos, es la esencia de B30 🙂
Un abrazote de vuelta Álvaro!
¡Hola Álvaro!
Muchas gracias por tu comentario. Me alegro muchísimo que te haya gustado y que ya estés poniendo en práctica lo que se explica en el artículo. Como ya te ha dicho Dean, es la esencia del blog, que todo emprendedor pueda utilizar la información para sus proyectos :). Así que contentísimos.
Gracias a ti,
Un abrazo
Artículos como estos son los que me animan a seguir investigando un mundo que me parece bastante complicado (entiendo que a todos nos parece más difícil aquello que no entendemos jeje) y seguir intentándolo.
Muy completa y visual la explicación que aportas; ¡gracias de nuevo!
¡Hola Eitzen!
Encantado de que te sirva de ayuda y motivación para seguir aprendiendo en el mundo del SEO. Vuestros comentarios también animan a crear este tipo de contenidos. Merece la pena el esfuerzo cuando a la gente le gusta y le resulta práctico 🙂
Gracias a ti por tu comentario.
Saludos
Gran post!
WoooW Siempre en Blogger3cero con los mejores articulos, aun soy novato y me estoy metiendo al SEO para mis sitios Web este articulo es genial, a mis compañeros novatos siempre recomiendo Blogger3cero.
Hola de nuevo yo
Me surge una consulta
Que rango de CTR medio es el adecuado para una pagina?, en mi sitio dice 8.5%
Posición media dice 9.7 mas de 10 es malo correcto?
Gracias
Ya veo que los autores invitados de este blog son como el contenido de muy alta calidad
Saludos
Hola, este mundo del seo sin tus enseñanzas no sería lo mismo, gracias por tan excelente material de apoyo. ¿Tienes alguna guía donde enseñes el manejo de Analytics? La busco en tu web pero no la encuentro. Gracias.
Estimado Luís, un gran post, enhorabuena. Le planteo un par de dudas:
1) revisando search console observo que aparecen palabras /expresiones que yo no las tengo escritas tal cual en mis textos. Si las incorporó en la web para que se me posicionen, ¿debo de copiar la expresión tal cual en mi texto o vale con que aparacan las palabras sueltas en el texto?. Ejemplo: search console detecta “herramienta de sujeción de más de 900N” y si quiero que se me posicione para eso, ¿debo poner tal cual la expresión o vale con poner en un lado “herramienta de sujeción” y en otro “900N”
2) ¿por qué search console me dice que mi web está posicionada para algunas palabras que cuando luego las busco en Google no aparece mi web? ¿Cómo interpreto eso?
Gracias
Hola Dean
Me gustó tanto este escrito de Luis que fui a asomarme a su web y blog
Desconocía ese bug que presenta ¿O presentaba? Yoast SEO
Este post me ha ayudado a ver en nueva perspectiva los informes de Search Console
Saludos
Gracias por la actualización y por el gran Post ;). A veces cuesta trabajo adaptarse a los nuevos cambios con tantas cosas que hay en el día a día.
Luis Revuelto, no tengo palabras para agradecer tu aporte, he aprendido muchísimo de este post! 😉 Y gracias Dean Romero! estaré siguiéndolos para seguir aprendiendo.
top!!!! 😀
¡Mil gracias por este pedazo de guía! Me has resuelto muchas dudas que tenia sobre la search console. Esto tengo que releerlo y estudiármelo bien bien.
El caso es que me queda una duda, es sobre el tema de añadir sólo el dominio en lugar de todas las urls con y sin www etc. Para algunas páginas que ya tenía indexadas añadí el dominio y quité las urls “sueltas”. ¿Eso se puede hacer o aún no? Parece ser que alguna da contenido duplicado. ¿No está bien implementado aún? ¿Qué me aconsejas?
¡Saludos y muchas gracias por el superartículo!
Hola!!!
Felicidades por el post. Me queda una duda, ¿cómo eliminar un enlace de google?
Felicidades por el post, práctico y bien explicado