Estrategia SEO paso a paso para aumentar tu tráfico desde hoy
4.55 (90.91%) 33 votos

Hacer accesible cualquier disciplina para gente que no se dedica de forma profesional a ella es complicado.

En los últimos meses me he centrado en tratar de desarrollar una serie de estrategias de posicionamiento web que hoy quiero compartir contigo y que podrás aplicarlas a tu blog nada más leer este post.

Muchas veces las personas (y yo me incluyo) buscamos resultados rápidos y a corto plazo cuando tratamos de aprender algo, pero la realidad es diferente y hace falta mucho trabajo y dedicación para conseguir resultados potentes y sobre todo estables en cualquier disciplina.

Ir al gimnasio para transformar tu cuerpo, aprender a tocar un instrumento, hablar un nuevo idioma o cambiar un hábito de vida tóxico.

El SEO no es ninguna excepción y así es como yo lo entiendo.

White Hat es picar piedra.

Facilitar el movimiento de Googlebot a través de tu web mediante enlaces internos, manuales y estratégicos, corregir errores de canibalización y llevar a cabo agrupación de viejos contenidos en contenidos nuevos, desarrollar sintaxis de URLs jerarquizadas, hacer keyword research en todas las partes de la página web…

White Hat comprende muchas “sub-disciplinas” o “técnicas” dentro de si y es una ciencia realmente extensa.

Este era el principal reto al que yo me enfrentaba cuando el verano pasado comencé a tratar de desarrollar un método o estrategia SEO que diera resultados ( = que subiera tu tráfico  📈) y que a su vez fuera entendible y aplicable por todos.

Agrupar todas las ramas del SEO en una única formación y ser capaz de elaborar un “guión” que la gente pudiera seguir para luego contarlo en:

¡Mi curso de SEO en formato vídeo! Mi mejor creación y de lo que más orgulloso he estado en mucho tiempo.

Comprenderás que te hable todavía un poco de él lector. Creo que hay muchas cosas relacionadas con DTV que pueden aportar mucho valor a Blogger3.0 y en este artículo te lo voy a demostrar de manera empírica.

Nota para lectores guerrilleros: el calendario de post de B30 está más vivo que nunca, dentro de poco comenzaremos una serie de post exclusivos sobre link building de 0 a 100 (algo que hasta ahora no he tocado en demasiada profundidad) y alguna sorpresa más que tengo preparada, pero también me voy a esforzar en que conozcas DTV por dentro y que sepas todo lo que te puede aportar, con artículos como éste.

En efecto este contenido está preparado para guiarte por las distintas secciones del curso de SEO, pero vamos a ver parte de una metodología en sí misma que te aporte valor y puedas aplicar incluso aunque solo leas este post.

Solo con eso podrás tener una gran base de la que partir y un método con el que comenzar un proyecto web (la gente siempre empieza a construir páginas sin un proceso planificado para aumentar el tráfico).

Si luego ya quieres profundizar mucho más y desarrollar las habilidades necesarias para aumentar las visitas de tu blog, de tus nichos SEO, de tu ecommerce o de tus clientes tienes a tu disposición el curso de SEO.

[PASO 1] Errores SEO: empieza por arreglar lo que está mal

Esto es algo que me ha funcionado en el pasado con clientes y también con proyectos webs propios como el de dinosaurioss.com que es con el que trabajamos dentro del curso.

Voy a comentar cosas reales que he tenido que arreglar en la web de una clienta en particular que tenía una web sobre temas de feng shui y algunos errores típicos que también había en la web de dinosaurios para que veas si puedes encontrar estos mismos errores en tu web.

Son bastante comunes así que es más que posible que si.

Uno de los errores más típicos es generar muchas URLs basura sin contenido propio y además indexar “todas” las URLs de nuestra web.

Tanto en el caso de dinosaurios como en el caso de la clienta de feng shui existían las típicas URLs (y además indexadas):

  • generadas por archivos de autor (ejemplo: http://blogger3cero.com/author/admin-2/)
  • generadas por tags (ejemplo: http://blogger3cero.com/tags/kindle/)
  • generadas por paginaciones (ejemplo: http://blogger3cero.com/page/3/)
  • de artículos tipo thin content, es decir post muy muy cortos y que aportaban valor 0

Todas esas URLs hacen perder el tiempo a Googlebot (el robot de Google que se encarga de navegar por tu página para proceder a su posterior clasificación) y primero debemos desindexarlas y luego a ser posible bloquearlas (aunque las paginaciones no se deberían bloquear por robots).

Solo llevando a cabo un correcto uso del “noindex” y del “robots.txt” en la web de la clienta de feng shui el tráfico comenzó a subir lentamente.

En el caso de dinos se han hecho todavía muchísimas más cosas y ahora está a punto de sobrepasar ya a las 80.000 páginas vistas.

Si estás siguiendo paso a paso este post entra en el panel central del plugin de SEO que estés utilizando (normalmente Yoast o All in One) y constata que los puntos mencionados arriba están en noindex.

Cuando pasen los días, normalmente, desindexarán y luego podemos proceder a bloquear dichas URLs por robots.txt (desde los plugins de SEO también puedes acceder al robots sin necesidad de entrar por FTP).

A continuación te dejo un robots.txt modelo que está más que testeado por mi y que resulta perfecto para implementar en cualquier página WordPress:

Con el tema de los contenidos pobres o thin content la cosa es un poco más complicada. Tenemos que proceder a agruparlos de manera efectiva y crear a partir de ellos contenido de calidad o si no es posible eliminar este thin content.

Explicaré el concepto primero y luego expondré una forma sencilla de solventar esto.

Cuando tú generas muchos post “de baja calidad” a lo largo del tiempo generas muchas URLs que no son capaces de traccionar tráfico a largo plazo.

¿Qué es para Google un contenido de baja calidad?

  • Un post que nunca ha recibido visitas orgánicas
  • Un post que desde hace muchos meses no ha recibido visitas orgánicas
  • Un post que no responde bien a la query del usuario

Yo en Blogger3cero tengo ahora mismo exactamente 322 post publicados, bien, imagina que se me va la olla y ahora publico otros 300 artículos de golpe.

Pero 300 artículos de mierda.

Es decir, en uno pongo una línea de texto, en otro pongo “hola”, en otro no pongo nada, en otro cuento cuales son mis series preferidas en Netflix… ¡tonterías varias!

Bien, de ese modo habría generado contenido de baja calidad de golpe y el 50% de mi contenido (suponiendo que antes las 322 entradas previas fueran de calidad) sería thin content y no traccionaría nada de tráfico (obvio).

Es decir, no se posicionarían para ningún término, no me traerían visitas…

Eso a Google no le gusta.

Debes tratar de que la mayor cantidad de URLs y contenidos dentro de tu web traccionen tráfico (por ese motivo en el curso he querido mostrar formas de hacer keyword research diferentes a cada una de las partes de la página web).

Lo que pasa es que esto es un ejemplo muy drástico (y muy tonto).

Normalmente hay contenido que hemos publicado hace tiempo que no tiene porque tener la mayor calidad del mundo pero que por el motivo que sea ha conseguido rankear más o menos bien en Google y trae algunas visitas.

Estos post serán los que fusionaremos con post nuevos, para conseguir unificar y agrupar contenido que Google volverá a subir dentro de sus resultados.

Una forma sencilla de hacerlo:

Cómo detectar thin content y unificarlo en contenido pilar para aumentar el tráfico

Resumen: Ordena en Google Analytics tus entradas por orden de menos a más tráfico captado en los últimos 30 días.

Después una vez identifiques las entradas que menos reciben visitas evalúa si puedes volver a generar contenido nuevo sobre ellas y fusiona ambos contenidos, los viejos con el contenido nuevo (que muchas veces subirá de golpe en los rankings).

Explicación paso a paso para que puedas ejecutar: Ve a Analytics > comportamiento > visión general >

Verás algo parecido a lo que te muestro en la captura de arriba. Ahí pulsas sobre > ver todo el informe y tendrás acceso a las entradas que tienen tráfico ordenadas de más tráfico a menos tráfico.

Tenemos que invertir este orden para que Analytics nos pinte por delante las que no tienen tráfico (el thin content sobre el que luego trabajaremos).

Para ello simplemente pulsamos sobre “Número de visitas a páginas” (1) y de ese modo Analytics nos mostrará delante lo que no tiene casi tráfico (esto se puede hacer todavía mucho mejor con Screaming Frog).

Después, debajo donde pone “Mostrar filas” haremos click en 500 para que nos muestre un panel más grande de resultados a visualizar (2).

Ahora tenemos que ir filtrando manualmente poco a poco. Al principio saldrán un montón de parámetros y URLs basura que han recibido tan solo 1 visita.

Cómo hemos puesto la vista de 500 en 500 en cuanto bajemos un poco empezaremos a encontrar post / entradas de nuestra web con poco tráfico, que es donde nos vamos a centrar.

Date cuenta en la siguiente captura que ya empiezan a aparecer post míos viejos que solo han recibido 1 única visita en los últimos 30 días.

Tendré que centrarme en ellos para ver que hago con estas URLs que le hacen perder el tiempo a Googlebot y que a su vez que no aportan visitas.

Haríamos un listado por ejemplo en Excel y después iríamos viendo de forma individual cómo proceder.

Una forma podría ser la siguiente:

Detecta los temas de los que hablan tus post que no tienen tráfico y agrúpalos bajo un mismo “topic”, “tema” o “categoría” por llamarlo de algún modo.

Imagina (por inventar un ejemplo) que de entre esos post que no tienen tráfico tienes muchos hablando de distintas actualizaciones de Google (Google Penguin, Google Panda etc).

Recuerda que no tienen tráfico, tal vez hayan sido post que han quedado desfasados en el tiempo y que a Google ya no le gustan.

En este ejemplo procederíamos a agruparlos con una redirección 301 a través del plugin Simple 301 redirect a un nuevo super-contenido titulado “Todos los algoritmos de Google de 2011 a 2017”.

De ese modo evitarías la canibalización que también te estaba perjudicando y llevarías fuerza a tu nuevo contenido.

Esta técnica bien empleada es devastadora en los rankings y yo la aplico con regularidad para determinadas keywords.

También reparé todos los errores 404 de mi web prehistórica con Ahrefs.

Además llevé a cabo una rápida auditoría con Screaming Frog para controlar los enlaces internos que apuntaban hacia los post antiguos (el thin content) que iban a ser movidos a otra URL (por la fusión de contenidos) y crear de nuevo esos enlaces internos para que apuntaran hacia las URLs nuevas.

Esto son solo unas pocas (poquísimas) pinceladas de errores que al ser solucionados mejoran la captación de tráfico orgánico, pero llevamos a cabo muchísimas más correcciones junto con mi equipo.

[PASO 2] Arquitectura Web / AI: planifica la arquitectura previamente

En el caso de dinosaurioss.com la arquitectura web inicial era una verdadera porquería.

En el caso de Blogger3cero (desde un punto de vista estrictamente SEO) también lo es.

Tu home no debe ser un listado de las últimas entradas.

O al menos no solo debe ser eso.

Tus mejores keywords no deben ser atacadas con un simple post (por más que sea largo).

Todas las partes de la web deben traccionar tráfico y cada URL de tu página debe estar enfocada a satisfacer intención de búsqueda diferente.

La extensión de tus entradas o artículos debe ir en función a la query o búsqueda del usuario (por norma general a más long tail es la búsqueda más corto, en texto, puede ser tu contenido que da respuesta a esa búsqueda)…

Un sin fin de puntos a controlar para desarrollar una plan de acción SEO completo y la arquitectura es uno de los puntos más extensos (y en base a eso en el curso lo trato a fondo, ahí he metido semanas y semanas de trabajo solo en grabación).

En este post vamos a centrarnos en uno de los puntos más importantes de la AI (Arquitectura de la información): la página home.

Hazte la siguiente pregunta: actualmente… ¿cuántas visitas capta (solo) tu página home?

Hace poco compartí un contenido para suscriptores que finalmente me ha parecido apropiado mostrar aquí también.

La siguiente captura de pantalla se corresponde a una captura de Analytics de una de mis webs, sacada la semana pasada, la cual tiene cerca de medio millón de páginas vistas al mes:

trafico medio millon

Una de las cosas que hay bien hechas en esa página (y aún se puede mejorar muchísimo más) es la página home.

La página home de esa web atrapa tráfico desde buscadores porque está obtenida en base a un proceso de keyword research muy concreto que es demoledor a largo plazo, a medida en que los robots de Google van pasando más y más veces la home rankea mejor y mejor.

En Dinosaurioss.com la página home antes de yo ponerme a trabajar de lleno con la web no chupaba visitas, era testimonial, como lo es la mayor parte de páginas home que tenemos a día de hoy.

Fíjate por ejemplo el porcentaje de tráfico que capta la home de Blogger3cero (mísero) en función a la puntuación total de tráfico que capta el dominio en SEMrush.

Primero vamos con la puntuación de tráfico en SEMrush para el dominio entero:

En SEMrush pone 2.1k de tráfico pero B30 ahora mismo anda cerca de las 40.000 visitas/mes

Y ahora, de esos 2.1k (o lo que es lo mismo: 2.100 puntos en tráfico) vamos a ver cuantos son captadas en exclusiva por la URL de la página home nada más:

Tan solo “10” de tráfico pilla la home en SEMrush 😂

Esto nos pasa a la mayoría de los bloggers y a los SEOs que montan nichos cada vez menos (el caso de éxito de Dietas10 creo un nuevo estándar a la hora de montar nichos), pero en el pasado es un tipo de error muy común también.

Si yo en mi home tuviera un buen texto SEO con consistencia traccionaría muchas más visitas que luego se convertirían en potenciales lectores ( y por ende en leads / suscriptores, que es lo que me interesa en el modelo de negocio de Blogger3.0 ).

En el blog de dinosaurios la home se ha creado con una precisión quirúrgica y ha pasado de no rankear nada y tener 0 de tráfico a atraer un montón de visitas y estar en este momento  en el Top 3 de la primera página de Google para la palabra “Dinosaurios” a pelo (modo incógnito):

Una keyword short tail de 75.000 búsquedas mensuales solo en España y unas 670.000 búsquedas mensuales a nivel global (cerca de 3 cuartas partes de millón de búsquedas).

Gran parte de la culpa de esto lo tiene la brutalidad que hemos llevado a cabo en la página home.

Tu home debe tener texto.

No pasa nada si eres un blogger y necesitas tener arriba otras cosas como tus formularios de suscripción, tus fotos e identidad corporativa y demás, puedes poner el texto un poco más abajo y no tiene porque ser tan extenso como el de dinos.

Bien, pues Dinosaurioss.com capta tráfico por sus entradas (las cuales enfocamos a atacar términos más long tail), con sus páginas (con las que creamos “clusters” de contenidos) y por supuesto con su poderosa página home.

La home realiza una función de inbound marketing muy buena y realmente medida.

Con Hotjar después vemos que en efecto la home nos sirve para crear más páginas vistas dentro de la web. ¿Cómo? 😳

Te lo explicaré.

La home hace un proceso de atracción de tráfico para la keyword “gorda” dinosaurios y para varias long tail más también.

Cuando un usuario de Google que ha puesto en el buscador la palabra “dinosaurios” llega a la home flipa en colores con la cantidad de información que tiene a su alcance.

Es la gracia de una “home martillo”.

Y además no lo hacemos con un super tocho de texto y punto. Esto generaría bounce rate elevado.

Trabajamos tanto interface (maquetación visual con el plugin Ultimate Shortcode) cómo copy (un texto de gran calidad redactado por mi amiga Cova Díaz).

Lo que medimos con Hotjar es la cantidad de clicks que hacen los usuarios en los múltiples enlaces internos estratégicos que hemos situado en la página home martillo.

A más clicks hacen lógicamente más páginas vistas generan y eso aumenta la respuesta de usuario del dominio en general. Es un círculo vicioso.

Por ejemplo, si tu quisieras saber más sobre las épocas de los dinosaurios, ¿me quieres decir que no harías click sobre una de estas baldosas?

Volviendo al grueso del texto, que es lo que le da la capacidad a Google de entender la semántica y desambiguar la keyword principal: hemos partido de la base de utilizar SEOlyze.

Hablé en profundidad de la utilización y enorme potencial de SEOlyze en este otro artículo.

A través de una fórmula TF*IDF SEOlyze es capaz de decirnos los términos más relevantes a incluir en nuestro texto a la hora de rankear en Google.

Es una herramienta de pago pero si eres alumno del curso te sale gratis, he llegado a un acuerdo con el CEO que es colega mío y mis alumnos la pueden probar gratis 🙂

A través de SEOlyze lo que vamos a hacer es encontrar los conceptos principales a través de los cuales va a pivotar todo el contenido en texto de nuestra página home.

Utilizaremos palabras clave de SEOlyze que tengan extensión semántica, es decir, que podemos desarrollar y hablar mucho sobre ellas dentro de un “texto martillo”.

Por ejemplo: tipos de dinosaurios, nombres de dinosaurios y cosas parecidas.

Una vez tenemos los conceptos principales toca volcar todo eso en un texto que poder incluir dentro con el que comenzar a captar visitas.

Por otro lado y para cerrar este apartado de Arquitectura Web, decir que la home es la columna vertebral de la arquitectura de tu página.

Todos los conceptos principales deben estar a solo un click de ella y desde ahí debes emitir enlaces internos hacia las secciones más fuertes de tu página web para reforzar todavía más el traspaso de autoridad y el movimiento de Googlebot.

[PASO 3] Keyword Research: encuentra el contenido que vas a integrar en la AI

Cuando ya has definido algunos puntos básicos de la arquitectura web (nosotros en este post nos hemos centrado en hablar de la home) toca encontrar las palabras que vamos a meter dentro de dicha arquitectura web.

Es decir, el cemento y ladrillos con el que vamos a llenar y construir sobre los planos que hemos creado mediante la arquitectura.

En el caso de la home, que es el ejemplo que estamos desarrollando más, una vez ya hemos extraído los principales “conceptos” mediante SEOlyze luego tenemos que encontrar las “ palabras ” que vamos a incluir dentro de cada uno de estos conceptos.

Para textos potentes (como puede ser el caso de páginas home, aunque tú puedes aplicarlo a cualquier página que quieras rankear) yo utilizo un keyword research basado en 3 fases.

  1. Keyword research semántico
  2. Keyword research ofensivo
  3. Keyword hunting

En este post solo vamos a centrarnos en el primero para no eternizarnos.

A través de un keyword research semántico lo que vamos a tratar de conseguir es decirle a Google que somos la página más completa en Internet para una determinada búsqueda.

Para ello vamos a utilizar sobre todo SEMrush.

La enorme base de datos de SEMrush a través de la cual vamos a poder encontrar un abanico titánico de palabras clave con búsquedas por parte de los usuarios.

Introduce la palabra clave que hayas extraído desde SEOlyze en el paso anterior (el famoso “concepto”) dentro de SEMrush para encontrar más derivadas long tail que poder incluir y desarrollar dentro de cada concepto.

Por ejemplo:

Supongamos que yo para mi home de dinosaurios he extraído los siguientes conceptos ⇨

  • tipos de dinosaurios
  • nombres de dinosaurios
  • dinosaurios carnívoros

Bien, pues esos serán los H2 que confeccionarán el “esqueleto” de mi texto martillo.

Ahora, como te decía, meteremos nuevamente esos términos en SEMrush para obtener toda la deriva long tail con búsquedas que esos conceptos pueden contener.

√ Tipos de dinosaurios ⇨ metemos la keyword en SEMrush ⇨ y nos devuelve: tipos de dinosaurios para niños, clases de dinosaurios, tipos de dinosaurios carnívoros… etc.

√ Nombres de dinosaurios ⇨ metemos la keyword en SEMrush ⇨ y nos devuelve: nombres de dinosaurios carnívoros, nombres de dinosaurios voladores, nombres de dinosaurios pequeños… etc.

√ Dinosaurios carnívoros ⇨ metemos la keyword en SEMrush ⇨ y nos devuelve: dinosaurios carnívoros del jurásico, dinosaurios carnívoros T Rex… etc.

Replicaríamos ese proceso en bulk hasta completar una base potente de contenido.

[PASO 4] SEO on Page: optimiza todavía más para buscadores

Uno de los módulos estrella de Dispara tus visitas. La flor y nata: el SEO on page, algo de lo que confieso estar firmemente enamorado (es la rama del SEO que más me gusta y más domino a día de hoy).

Hay toneladas de contenido metidas dentro, pero en este post me voy a centrar en hablar sobre una de las aplicaciones de los enlaces internos.

Los enlaces internos son una de las mejores herramientas a día de hoy para pegar saltos en los rankings de Google pero su uso está todavía realmente subestimado por gran parte de la comunidad blogger y SEO.

Se pueden exprimir una barbaridad.

A continuación te voy a enseñar un tip para encontrar  las mejores páginas de tu dominio desde las que emitir enlaces internos  hacia otras partes de tu página web.

Off topic: Hay una pequeña (ínfima) parte de mi a la que le “joroba” contar todo esto por los SEOs que van a utilizar este conocimiento para adelantarme en las SERPS dentro de los mismos nichos donde estoy yo compitiendo, pero lo haré igualmente.

Para ello vamos a SISTRIX (puedes probarla 14 días gratis desde este enlace) y desde ahí vamos a la pestaña “URLs” dentro del módulo “SEO”, en el sidebar izquierdo que es donde se sitúa el menú de la herramienta.

Si hago el ejemplo con Blogger3cero me sale esto:

Esas son las URLs con mayor capacidad de tracción dentro de mi dominio.

Es decir, las que rankean una mayor cantidad de palabras clave (ojo, no por ello necesariamente las que más tráfico traen, solo traen tráfico cuando se encuentran en primera página, es decir, cuando aparecen en la primera columna: Top 10 keywords).

Estas URLs con mayor capacidad de tracción son visitadas a menudo por Googlebot y son sitios magníficos para emitir enlaces internos hacia otras partes de tu página web.

Otra aplicación importante que debes llevar a cabo con ellos es utilizar como anchor text palabras que tengan búsquedas.

Las búsquedas (ahora que Google ha capado el planificador de palabras clave) yo las saco con KeywordTool.io (me parece la opción más pro).

Puede parecer todo “muy sofisticado” pero no lo es.

Parte siempre de una base lógica y manda más enlaces internos hacia los contenidos más importantes de tu página.

Otra de las muchas cosas que vemos que marcan la diferencia y que trabajamos a fondo dentro del curso es la estructura de URLs en SILO: cómo crearlas, como jugar con ellas para rankear todos los niveles de la URL en Google

Pero si meto más contenido de eso aquí esto sería un post de 45.000 palabras.

[PASO 5] SEO off Page: Aumenta la autoridad y la popularidad de tu página

Aquí por el momento mi único consejo será: céntrate en conseguir aquellos enlaces que te traigan tráfico (aunque sea poco).

En el curso de SEO vemos la forma de encontrar enlaces gratuitos e incluso tematizados para tu proyecto.

La forma de utilizar los anchor text apropiados para potenciar la efectividad de los links… y algunas cosas más.

Pero a pesar de eso no voy a extenderme sobre este punto, es con diferencia el más pequeño del curso y tengo algunos motivos para eso.

A continuación te contaré dos.

Por un lado, creo que un curso de SEO que se centra completamente en tratar de consolidar una estrategia SEO white hat a largo plazo debe focalizarse más en el SEO on Page.

Y por otro lado, en los próximos artículos que publique en Blogger3cero quiero profundizar por primera vez sobre link building, contar todo lo que yo conozco al respecto y poder de ese modo ayudar a muchas personas a mejorar su visibilidad off page.

Me basaré en la herramienta Ahrefs para trabajar y ya el que quiera puede coger ese conocimiento y hacer con él lo que quiera.

###

Esto es solo el 4% del curso lector. Si quieres el otro 96% ya sabes donde puedes encontrarme: DisparaTusVisitas.com

¿Tienes alguna duda de cómo aplicar esta estrategia SEO a tu proyecto? Pregúntame en los comentarios.

¡Nos vemos pronto!

Dean.

Share on FacebookShare on Google+Share on LinkedInTweet about this on Twitter