Limpiar los errores SEO de una web puede aumentar su tráfico. Algo que estamos empezando a constatar en el caso práctico de Hosting Saurio, que estoy contando por abierto en el blog.
Hoy te lo contamos con más detalle para que puedas replicar nuestros pasos al 100% 😌
¡Hey qué pasa lector! 🤠 ¡Qué pasa lectora! 🥰
Hoy viene a Blogger3cero Marco Leiva, el CEO de la división nichos dentro de mi equipo y una de las personas encargadas de auditar la web de Hosting Saurio.
Mientras yo me ocupo de las acciones SEO más “ofensivas” (optimización de copy y CTR) o de incrementar el tráfico en zonas puntuales y estratégicas de la web (como mostré en vídeo aquí), Marco y la parte del equipo que estamos entrenando para servicios se ha ocupado de la auditoría SEO en general.
En este post te vamos a contar la lista de errores que hemos limpiado nada más comenzar a trabajar con la web y después, al final del mismo, haremos algo que no he visto por ningún otro lado:
➔ compartiremos una auditoría SEO profesional , llevada a cabo por nuestro equipo, en abierto en el blog, completamente gratis, para que te la puedas bajar y empollar si quieres.
Fuego 🔥
Comenzamos… ¡Marco! Son todo tuyos.
Índice del artículo
Hola a todos lectores y lectoras de Blogger3cero, Marco de nuevo por aquí.
Espero que en estos tiempos que vivimos estéis todos bien dentro de lo posible. Esta situación está afectando a nivel global nuestra forma de vivir, y si puedo sacar algo positivo es que se ha puesto de relieve la importancia de las competencias digitales, es una purga en muchos sentidos y solo los más adaptables sobrevivirán.
Cualquier rama digital (en especial el SEO para mí) tendrá más importancia en un futuro cercano.
Ya hemos visto cómo muchas empresas se han tenido que digitalizar y expandir en la parte digital de sus negocios en muy poco tiempo, no siempre de la forma más acertada.
Creo que toda esta locura va a hacer pensar a mucha gente y el entorno online va a sufrir un nuevo auge que nos guiará hacia un nuevo paradigma social y laboral donde el negocio local ponga su esfuerzo en la venta online, donde el mejor escaparate sea el de los buscadores o donde las oficinas y la parte “presencial” del trabajo pasen a ser conceptos obsoletos que quedarán relegados a un segundo plano, favoreciendo el teletrabajo y los horarios flexibles.
En resumen, quizá soy demasiado soñador, pero no hay duda de que es el momento para formarse y desde Blogger3cero esperamos poder contribuir a tu formación y a tu futuro digital a través de las publicaciones de este blog, o por lo menos poner a tu disposición contenido que te haga más amena esta cuarentena 😉
No me enrollo más, que hoy me he puesto filosófico 😇
Ahora sí, vamos a por el post de esta semana.
Una vez más, será un contenido de SEO totalmente práctico basado en una caso real.
Te voy a contar mi implicación a nivel SEO dentro del proyecto hostingsaurio que está llevando a cabo Dean y mostrarlo en abierto en el blog, como ya hizo en esta vídeo píldora o en esta otra.
Esta web tiene un potencial tremendo, pero hasta ahora prácticamente no la habíamos trabajado, ya sabéis que siempre estamos con proyectos nuevos y mil webs, y al final el tiempo es limitado.
Ahora ha llegado el momento de darle caña y tratarla con el cariño que se merece y lo vamos a ir compartiendo aquí, en Blogger3cero.
En el post de hoy vamos una lista de errores SEO que hemos limpiado dentro de esta web en modo lista, para que tú puedas aplicar los mismos pasos dentro de tus webs y además daremos un regalito en formato PDF al final 😉
Antes de ver estas acciones concretas, vamos a hacer un repaso relámpago de algunos conceptos necesarios para entender mejor de qué va esto del rastreo y la indexación, o los errores SEO en general.
Vamos a construir un post que pueda entender todo el mundo. Esa es la base de cómo nos gusta trabajar.
¿Qué es el rastreo?
Los motores de búsqueda, siendo Google el protagonista indiscutible, tienen unos rastreadores o arañas que se encargan de encontrar todas las URLs que pueda tener tu web con el propósito de encontrar contenido nuevo que mostrar en sus índices de búsqueda.
Estos rastreadores examinan las URLs que ya conocen de tu web buscando cambios en dichas páginas y, siguiendo los enlaces internos de las páginas conocidas, examinan también si se han producido nuevas publicaciones.
En esencia, siguen los enlaces internos de la misma forma en que lo hace un scrapper cualquiera, como puede ser el caso de Screaming Frog o DinoRANK (en la foto estructura de enlazado interno de una web, por DinoRANK).
¿Con qué frecuencia rastrea Google mi web?
En la herramienta Search Console podemos encontrar unas gráficas con las estadísticas de rastreo de los últimos tres meses.
Esta gráficas nos ofrecen una serie de datos como las páginas rastreadas por día, los Kilobytes diarios descargados o el tiempo de descarga de una página.
No hay un presupuesto de rastreo bueno o malo de manera estándar. Nuestra labor aquí es crear una línea base sobre la que comparar en el futuro si nuestro presupuesto de rastreo aumenta o disminuye.Lógicamente, a mayor presupuesto de rastreo, más posibilidades de que el crawler conozca todas las páginas de nuestra web y las visite más a menudo, lo que conlleva potencialmente una mayor captación de tráfico.
¿Qué es la indexación?
El contenido encontrado durante el rastreo pasa a la fase de indexación.
En esta fase es donde toda la información recopilada anteriormente toma forma. En la indexación se determina qué páginas pueden ser guardadas en el índice y por tanto ser visibles en los resultados del buscador.
Nuestra misión es asegurarnos de que nuestro sitio web es fácilmente rastreable y que este rastreo se lleva a cabo en las páginas que tienen nuestro mejor contenido, que son las que realmente queremos mostrar (=indexar).
Hay que dejar claro que una URL indexada no es una URL posicionada. Tu web puede estar dentro del índice de Google, pero no aparecer en los primeros resultados. Tener los contenidos indexados es requisito necesario, pero no suficiente.
Archivo robots.txt
Este archivo, que debe estar instalado en la raíz de tu dominio, es el archivo en el que indicaremos las reglas básicas para los rastreadores, llamadas directivas.
Lo normal es que los rastreadores al llegar a nuestra web revisen si hay un archivo robots.txt y lo “lean” para saber a qué partes de la misma pueden acceder y a cuáles no.
Si bloqueamos el paso de los rastreadores en ciertas URLs, el indexador nunca será capaz de analizar los contenidos y estos contenidos no tendrán opción de aparecer en las SERPs.
Bueno, esto no es del todo cierto 😉
Si tenemos URLs bloqueadas por robots, es posible que se lleguen a indexar si están enlazadas desde URLs externas.Os dejo por aquí un enlace a la ayuda de Search Console donde hay más información al respecto.
Vamos a ver más detenidamente en qué se basa este archivo.
Sintaxis del robots.txt
User-agent: Es el DNI del rastreador, la forma de nombrarlo e identificarlo. Sirve para definir a qué rastreadores van a afectar las reglas que especifiquemos a continuación.
Disallow: Es la directiva que indica a los rastreadores donde NO deben acceder.
Allow: Al contrario que la anterior, la directiva allow especifica dónde se puede acceder. Es muy útil para especificar excepciones.
Sitemap: Esta directiva debe ir seguida de la URL del sitemap de nuestra web (https://tuweb.com/sitemap_index.xml). Nos sirve simplemente para decirle al rastreador donde está el sitemap de nuestra página.
Crawl-delay: Esta directiva sirve para pararle los pies a los rastreadores y que no sean “muy pesados” (aunque en realidad muchos bots no hacen caso). Podemos especificarle a las arañas el tiempo que deben esperar entre cada acceso.
Aquí tienes una guía de ayuda con las especificaciones del archivo robots.txt
Si queréis profundizar, tenéis que leer el artículo de Álvaro Fontela de Raiola Networks sobre este tema en el que comparte un modelo de robots.txt que yo suelo utilizar con pequeñas modificaciones: podéis encontrar el artículo en este enlace.
Para comprobar si nuestra versión de robots.txt tiene algún fallo, Google pone a nuestra disposición la herramienta “Probador de robots.txt”. Además de confirmar que nuestro robots no tiene errores de sintaxis, también podemos pedir que lo actualice en caso de que hagamos alguna modificación.
Échale un vistazo a la herramienta pinchando aquí.
Etiqueta Noindex
Con esta etiqueta nos aseguramos de que la URL no aparezca en los resultados de búsqueda.
Cuando añadimos esta etiqueta, debemos asegurarnos de no tener bloqueada la URL por robots.txt, ya que para que los rastreadores puedan leer la URL debe ser accesible y rastreable.
La diferencia entre la etiqueta Noindex y la directiva Disallow que hemos visto anteriormente, es que con Disallow los rastreadores no tienen permiso para acceder a las URLs indicadas. Sin embargo, con la etiqueta Noindex las arañas pueden acceder, pero las URLs no serán indexadas.
Un ejemplo clásico donde queremos que el rastreador acceda pero que no indexe son las paginaciones.
Es decir, queremos que el rastreador acceda a estas páginas para que siga los enlaces y tenga en cuenta para la indexación los posts que hay en estas paginaciones, pero, por el contrario, no quiero que indexe este tipo de URLs (no quiero que formen parte del índice de resultados de Google):
Para solucionar esto y decirle a Google que estas URLs son paginaciones, nos aseguraremos de tener las etiquetas rel=”prev” y rel=”next”.
Y añadimos también la etiqueta follow para que el rastreador siga los enlaces, pero combinada con noindex para que la URL no sea indexada.
Sitemap XML
El sitemap de un sitio web es una lista de todas las URLs de dicho sitio, donde además se informa a las arañas de las relaciones que hay entre esas URLs y de cualquier cambio, actualización o novedad en ellas.
Este archivo es útil para los rastreadores, ya que lo utilizan para entender mejor la estructura de la web y lo toman como un listado general del contenido disponible.
Es necesario aclarar que tener un sitemap en tu web no es garantía de que tus URLs se incluyan en el índice de Google.Tener este archivo en tu web no es obligatorio, pero sí es recomendable.
Sobre todo, te recomiendo que crees un sitemap cuando publiques una web nueva para ayudar a que Google y el resto de buscadores empiecen a rastrearlo.
Si quieres profundizar un poco más en el tema puedes leer este artículo de Human Level.
Paginas Huérfanas
Las paginas huérfanas de una web son aquellas que no tienen enlaces internos apuntando hacia ellas.
Estas URLs se quedan en el limbo sin ningún camino accesible por los rastreadores para llegar hasta ellas. Si no le damos a los rastreadores un enlace que puedan seguir hasta estas páginas, no podrán rastrearlas ni indexarlas.
Vamos, que el contenido de esas paginas no llegará a tus lectores o clientes y estarás perdiendo oportunidades.
Visto todo esto, vamos a pasar a las acciones concretas que os decía más arriba.
Vais a ver cómo con unas acciones rápidas y muy concretas, mejoramos bastante la salud de nuestra web y con ello el potencial tráfico captado.
Acciones de rastreo e indexación en Hosting Saurio
Bien, ahora con los conceptos claros, vamos a solucionar estos errores y a explicarle a los buscadores qué partes de nuestra web queremos que encuentren y que indexen, es decir, nuestras preferencias de rastreo.
Vamos por partes:
Análisis de URLs indexadas
Hace referencia al número de páginas (URLs) de tu web que aparecen en Google. Es importante controlarlo y solo indexar en los resultados de Google aquellas páginas que nos puedan interesar.
En el caso de Hosting Saurio fue así:
- URLs indexadas en Google (comando site:): Arroja 38 resultados
- URLs indexadas en Search Console: 44 URLs
- URLs Crawleadas en Screaming Frog: 41 URLs HTML
Entonces, URLs en HTML indexables 41, 38 resultados en el buscador y 44 URLs en el índice de cobertura de Search Console.
Vamos, que algo no cuadra, así que nos toca ver qué falla.
Haciendo una comparación rápida, enseguida sacamos cosas.
En Screaming aparecen como indexables las URLs de las paginaciones y la de “quienes somos”que son las mismas que aparecen como indexadas no enviadas en sitemap dentro del informe de cobertura de Search Console, más la página de Contacto.
Con un análisis muy sencillito, ya sacamos cosas que debemos arreglar.
Lo primero que vamos a hacer es pedir la retirada de URLs en Search Console.
Y, además, aplicaremos la etiqueta noindex que hemos visto anteriormente.
Hecho esto, volveré a hacer un estudio completo de URLs de la web (todavía baila una URL) hasta que las URLs indexadas sean exactamente las que yo quiero que estén indexadas.
Acciones ejecutadas en Robots.txt
- Vamos a bloquear las partes de la web que consideramos que no es necesario rastrear
- Bloqueamos los bots o rastreadores que no queremos que pasen por nuestra web
- Añadimos nuestro archivo Sitemap
Comparto por aquí el robots modelo que solemos usar, aunque adaptado.
De forma visual, pasamos de este archivo robots…
A este otro que puedes ver en la imagen:
Podéis hacer esto con mucha facilidad en WordPress a través de Yoast.
Accedéis a la opción Herramientas > Editor de archivos y editamos directamente el archivo Robots.txt.
Os dejo el sitemap de Blogger3cero por si lo queréis usar. Es más sencillo que el anterior, pero es más que suficiente para una web tipo Blog.
User-agent: *
Disallow: /wp-login
Disallow: /wp-admin
Disallow: /*/feed/
Disallow: /*/trackback/
Disallow: /*/attachment/
Disallow: /author/
Disallow: *?replytocom
Disallow: /tag/*/page/
Disallow: /tag/*/feed/
Disallow: /comments/
Disallow: /administrar-suscripciones/
Disallow: /xmlrpc.php
Disallow: /*?s=
Disallow: /*/*/*/feed.xml
Disallow: /cdn-cgi/
Disallow: /?attachment_id*
Sitemap: https://tuweb/sitemapindex.xml
Acciones ejecutadas en Sitemap
El sitemap enviado a Search Console daba error.
Simplemente hemos creado un nuevo sitemap también en Yoast y lo hemos mandado nuevamente a SC mediante los siguientes pasos:
Yoast > General > Características > Mapas del sitio XML y marcar la opción Activo.
Pinchamos en la opción ver el mapa del sitio XML y se nos abrirá una nueva pestaña en el navegador.
Esa URL es la que tenemos que enviar a nuestro Search Console.
En SC seleccionamos la opción Sitemaps, añadimos sitemap_index.xml y pulsamos el botón enviar.
Puedes ver que nos marca “Estado: Correcto”.
Acciones ejecutadas en las paginas huérfanas
He encontrado 247 páginas huérfanas en el reporte de Screaming Frog pero esto es debido, principalmente, a enlaces a secciones de página o post creados por el plugin table of content plus.
Estas URLs no representan un problema de cara al SEO de la web ya que no son realmente paginas huérfanas, así que aquí lo he tenido fácil 😅
Acciones ejecutadas en las URLs espejo
A través de DinoRANK he encontrado unas cuantas URLs espejo, aunque no son muchas.
Si quieres profundizar en el concepto de las URLs espejo aquí tienes un post donde Dean lo toca a fondo.
En esencia (y por resumir) voy a decir que se producen cuando tenemos 2 versiones de una misma url (con y sin slash al final).
Las he encontrado en tres ubicaciones:
- Dentro del texto en enlaces internos
- En los comentarios
- En unos botones que había en la Home hacia la página “quiénes somos”
Después de comprobar que las versiones sin slash (/) no tienen enlaces externos apuntando hacia ellas, simplemente he arreglado los enlaces añadiendo la barrita (el slash) y los enlaces que había en los botones de la Home ya no existen, simplemente han desaparecido los botones con sus respectivos enlaces.
Y lo último será supervisar las gráficas de rastreo de Search Console para marcar una línea base de rastreo para que así en la próxima revisión que hagamos, sepamos si nuestro presupuesto de rastreo ha variado.
Y estas han sido las sencillas acciones de limpieza que hemos llevado a cabo.
Auditoría SEO descargable en PDF
Si quieres ver la auditoría completa que hemos hecho a la web a nivel de SEO, hemos decidido regalarla a los lectores del blog:
Puedes descargar la auditoría SEO de Hosting Saurio desde este enlace.
Dentro de la auditoría completa podrás ver con mucha más profundidad los aspectos SEO que hemos trabajado, ya que el post solo lo hemos querido enfocar en una lista concreta de errores específicos que hemos limpiado.
Estamos empezando a trabajar auditorías SEO en casos muy específicos, si te interesa que miremos a fondo tu web y que hagamos algo similar a lo mostrado en la auditoría de Hosting Saurio contacta con nosotros y lo miraremos on fire 😉🔥
Os mando a todos y a todas un abrazo fuerte desde aquí y mucho ánimo. Queda un día menos para retomar el pulso de nuestras vidas y abrazar de nuevo a nuestros seres queridos, que al final es lo verdaderamente importante.
Marco Leiva, CEO de la división nichera de Blogger3cero.
Hola Marco y Dean, precisamente hoy me llegó una notificación de Search Console que trataré de ver si lo puedo solucionar con esta guía, mil gracias por compartir, saludos.
Buenas Yosjany.
Espero que te sea útil. Hay que dejar Search Console bien limpito 😉
Un saludo.
Si tienes alguna duda y no la puedes resolver nos cuentas por aquí y te lo miramos 🙂 sin problema
Buenas tardes.
Con respecto al sitemap.xml, sólo es necesario subirlo al Search Console? O es conveniente también ponerlo como enlace en el footer de la web?
Lo comento más que nada porque en el artículo comentáis que para que los rastreadores de los buscadores detecten nuestras urls, es conveniente usar el sitemap.
Entiendo que si sólo lo subo al Search Console….sólo estará disponible para Google, y no para otros buscadores.
¿Qué se hace al respecto?
Gracias
Hola Silvia.
En el footer de la web puedes poner un Sitemap HTML si lo crees conveniente. No es incompatible con el Sitemap XML.
En Bing también puedes subir tu Sitemap en esta url https://www.bing.com/webmaster/configure/sitemaps/
Con eso es suficiente Silvia. Un saludo.
eso es 🙂 en el footer solemos poner el sitemap HTML
un ejemplo en el footer de este nicho: https://dinosaurioss.com/
Muchas gracias Dean / Marco.
Como siempre, me facilitáis la vida 🙂
Excelente y muy completo recurso para todos los SEO. Gracias por compartirlo.
Muchas gracias a ti Renzo por pasarte a comentar.
Buenas Renzo ¿eres el consultor con el que intercambié conversación hace un tiempo sobre tema SEO técnico?
perdí el hilo
Si, Dean, te envio un email en breve. Un saludo.
Gracias Renzo
En tu web he podido ver que también trabajas de diseñador puede ser?
me ha llamado la atención dicha combinación, jeje
Hola Marco y Dean, post técnico donde los haya, madre mía. Gracias por el PDF, me lo guardaaré en mi carpeta de recursos SEO para saber cómo se hace una auditoría como Dios manda.
Una duda: ¿dónde colocáis el noindex a las paginaciones? ¿Está colocado en el robot.txt?
Gracias!
Buenos días Daniel.
Me alegro de que guste 🙂
En el robot.txt la etiqueta noindex ya no sirve. Te voy a dejar un artículo que es una joya 😉
http://blog.ikhuerta.com/10-cosas-que-deberias-saber-sobre-las-etiquetas-meta-robots-noindex-nofollow-e-indexacion
Gracias Marco por tu respuesta, me guardo en favoritos ese post y en cuanto pueda le echo un vistazo.
Muchas gracias por vuestro trabajo y por ser tan transparentes.
Saludos.
Gracias a ti Daniel.
El artículo que te he dejado enlazado es larguito y más bien denso pero es muy bueno.
Preparate un rincón cómodo, una buena taza de café y disfruta del post con calma.
la próxima acorta este enlace con bitly ;P jajaja
Marco no defraudas, que gran post la verdad, si hay algo que es lo que más me gusta del SEO es la parte más técnicos, analíticas, crawleo…
En general me ha encantado
Hombreee compiañero.
Ya sé yo que a ti y te gusta la parte técnica y los soft 404 jajajjajaa 😉
Muchas gracias por pasarte Pichu, un abrazo.
Pichu!!!
Tú pronto estarás con nosotros espero, los planes poco a poco van saliendo 😉
Hola Dean
Gracias Marco
Este post es un roadmap para llegar a ser consultor SEO
Muy bueno y sencillo
Saludos desde Caracas ☺️
Luis, qué tal?
Esto es solo una pequeña parte de lo que llega a hacer un consultor SEO, la idea era esa, que sea un post fácil de entender.
Un abrazo 🙂
me alegra mil que te guste Luis !!
el power on fire está también en la auditoría SEO en PDF que hemos dejado linkada en el post
una agencia por esa misma auditoría o incluso peor te puede clavar 800 – 1.000 euros perfectamente y nosotros la estamos dando gratis
es un poco nuestro enfoque, es decir, la teníamos que hacer para nosotros igual, ya que la auditoría de uno de mis nichos y yo la pedí al equipo, con ella en mano compartirla creo que os puede aportar a todos un plus bastante grande
Buenísimo Marco!! El pdf súper currado y muy pro! así que os metéis en el mundo clientes eh… jeje mucho ánimo!
Muchísimas gracias Ivan, este comentario por tu parte tiene mucho valor para mi.
De los clientes.. ni confirmo ni desmiento nada jajajaja. No, a ver, estamos probando con poquitos clientes pero a futuro no lo descartamos.
Cuando pase todo esto quedamos para comer cachopo y ya te cuento más detenidamente 😉
Un abarazo Ivan.
SEO del Norte por aquí!!
jajaja, yes… vamos a hacer algunas pruebas desde B30 😉 ya te contaré
Genial post chicos!
Súper técnico pero una vez más oro puro. Buena lectura de desayuno.
Muchas gracias por compartir tanto!
Saludos a los dos
Gracias a ti Alex por pasarte.
Con comentarios así yo contento de compartir 🙂
Un saludo.
Gracias a ti Alex !! 🙂
Es técnico pero aún así tiene un enfoque para gente que está iniciando
Te aseguro que se pueden poner cosas mil veces más técnicas, de esas que te explotan la cabeza solo con leerlas, jaja
Me molaría verlos, defecto del animal jaja
Estoy acostumbrado a ver documentos de despliegue de servicios de telecomunicaciones súper técnicos, de esos que te pasabas una semana intentando descifrar cuál jeroglífico egipcio. ( lo más importante en este punto era poner cara de….si….aja….entiendo….uhmm está parte se podría mejorar….)
La verdad es que me mola ver este tipo de documentos, igual que las píldoras de seo. Se aprende mucho de ellos.
Gracias y fuerza!!
(Por cierto ya te conteste al audio 😉)
jajaja mil gracias por comunicármelo por aquí tío
Me lo voy a agendar en Todoist porque tengo tal cantidad de mensajes que si no se me pasa fijo
Un abrazo!
Qué tal Marco?
¡Qué bueno leerte por aquí! Y además con este pedazo de post.
Una muy buena "rutina de limpieza" por llamarlo de alguna forma. No se te escapa ni una jejeje
Un saludo crack!
PD: Un saludo a ti también Dean!! 😉
Marcos, compañero de aventuras… Tenemos que volver a quedar algún día.
Me alegro mucho de verte por aquí, espero que estés pasando lo mejor posible el confinamiento.
Es una rutina sencillita pero que puede mejorar mucho el estado de una web.
Te mando un fuerte abrazo.
No lo dudes Marco (ni Dean) que en cuanto se pueda habrá que hacer otra reunión de esas tan enriquecedoras jejeje
PD para Dean: A mi también me llamas Marco a veces, unas por otras 😉
jajajaja, no me acordaba que contigo también me pasaba
Bueno como muy tarde en diciembre, ya sabes, ahí en la super cena y fiesta de equipo la liamos seguro como la otra vez ;P
Marcos,
Por tu culpa a "Marco" (sin la "s") en la ofi siempre le llamo Marcos
Jajajaja
No puedo tener a dos Marco/s en el equipo !
Buenos días, compañero Marco
Un articulo muy interesante y esclarecedor y por supuesto el pdf de la auditoria canela en rama para poder seguir los pasos para realizar una auditoria a clientes, seguro que esto dentro de la membresia de seowarriors lo explicareis con mas calma.
Como comentas lo mas importante es la salud de uno mismo y de nuestros seres queridos
Cuídate mucho compañero y un fuerte abrazo
Muy buenas Juan.
Por supuesto, en la membresía veremos todo esto a fondo y más cosas. Además vendrá gente a Seowarriors que son auténticos crakcs en estos temas.
Efectivamente, en estos momentos es cuando te das cuenta de lo que echas de menos a aquellos que dabas por sentado que podías ver en cualquier momento. Queda un día menos.
Un abrazo Juan, te veo luego en el directo 😉
Por supuesto compañero ahí estaré esta tarde aprendiendo y compartiendo conocimientos e información.
Un abrazo
Que grandes sois los Seowarriors joder 🙂
Buenas Juan
Dentro de SEOWarriors no es que vaya a haber una auditoría, es que vamos a meter un curso completo de auditorías SEO de 0 a 1.000 😉
Estoy particularmente orgulloso de ese curso 😀
Hola Marco
He visto en el Search Console que Google me está excluyendo páginas del tipo:
https://www.midominio.com/fiestas-populares-madrid/?faq=1
En realidad, yo no creé ninguna url acabada en esa terminación. La url original y buena, donde hay contenido es https://www.midominio.com/fiestas-populares-madrid
Con terminaciones extrañas tengo unas cuantas URLS, del tipo "id_lang=2", "faq=1". No entiendo por qué Google me detecta eso, si realmente las urls que tengo son limpias.
Debería hacer un Disallow como comentas en el sitemap con todas esas terminaciones? Afectará en algo?
Disallow: /*/?faq=1
¿Qué tal Silvia? ¿Eres la Silvia que ha estado en el directo?
Si quieres vemos tu web a ver que sacamos. Pasame URL 😉 por privado claro.
Y si, está mal que yo lo diga, pero estas putas cosas solo pasan en B30
que le vamos a hacer
Hola Marco,
No, no pude entrar en ese directo concretamente, pero sí que os sigo por todos lados y suelo ver vuestros webinars y charlas online que ofrecéis.
Por cierto, ayer me llegó la publicidad para el curso gratuito que ofrece seowarriors, pero por más que intento suscribirme…no recibo el email para el acceso al curso. He mirado en SPAM en todas las carpetas repetidas veces sin éxito. Vuelvo a suscribirme con otro email..y tampoco lo recibo. Revisarlo por favor. Gracias
Te refieres al curso de Search Intent que deriva de esta página Silvia?
https://membresiaseowarriors.com/curso-search-intent/
Efectivamente, a ese curso que comentas , Dean.
Ahora mismo conforme me has pasado el enlace he vuelto a inscribirme, pero sigo sin recibir el email. Mi email como puedes ver es un Gmail, no es un dominio raro. Normalmente me llegan el 99 % de los correos sin problema. Échale un vistazo 🙂
lo reporto ahora mismo al equipo
hemos captado ya un buen puñado de emails y todos van bien
Es extraño si…
Sería interesante ver ese curso en especial. Pásame si puedes un enlace directo al curso sin que tenga que pasar por el email, si es posible claro 🙂
Gracias
Te mando un correo
¡Excelente post Marco! Y la auditoría es oro puro, muy inspiradora si señor.
Muchas gracias Juanma 🙂
Me encanta ver por aquí a mis queridos compañeros Gambas.
En el directo vemos el tema de auditorías si queréis.
Hola Marco,
No defraudas, este post ha sido como leer a Jack El Destripador de webs.
Un abrazo
Amiga Di!
Oye, lo he soñado o te debo un audio de voz por Telegram?
Perdona compi, si es así mañana te contesto (si no siéntete libre de volverme a recordar)
Muchas gracias Di 🙂
Como dijo Jack el Desptripador: Debemos valorar a las personas.. digo las webs por lo que tienen en su interior jejejeje.
Otro abrazo fuerte para ti.
Gracias Marco por el pedazo de post!!
Con la parte técnica la verdad es que me pierdo y creo que para los que estamos empezando nos será útil como guía.
El PDF con la auditoria brutal!!
Un abrazo y gracias por compartir conocimiento.
Buenas tardes casi noches Fernando.
Es lo más asequible en cuanto a lectura que he podido hacer. Intento que lo pueda leer cualquiera independientemente del nivel.
Si tienes alguna duda ya sabes donde encontrarme 😉
Un saludo y gracias por pasarte Fernando
Me alegra que te guste
El PDF creo que marca una diferencia abismal en contenidos gratuitos, estoy realmente orgulloso de lo que hace mi equipo
Acciones que parecerían muy simples pero que son de gran impacto, ahora mismo vamos a aplicarlas
*me estoy volviendo fan de este blog jejeje
Hola Alberto.
Que no eres fan todavía????? De verdad??????
jaajajajaja.
Pues eres bienvenido, te puedes pasar cuando quieras.
Un saludo.
jajajaja
Gracias Alberto
Te aseguro que hay un trabajo en cadena de muchas personas dedicadas a este blog para que podáis disfrutar y consumir contenidos así todas las semanas 🙂 lo hacemos con mucho cariño
Muy interesante la web, me estoy iniciando en el mundo del SEO y toda esta info me vino muy bien. Un saludo desde Ecuador.
Mi página web es http://blog.espol.edu.ec/hojadevidaexpress/ espero que les guste. La he realizado con el sistema de blogs de la universidad donde asisto.
Buenos días Ronny.
Bienvenido al mundo del SEO, espero verte por aquí 😉
Un saludo.
Hola Marco y Dean!
Tengo una duda. No se si lo podriamos considerar errores, aunque si putada supongo por parte de la competencia. Tengo una web que me llegan muchos formularios pero a nivel de seo no le presto mucha atención. Bueno, esta semana revisé el serch console y vi que tengo más de 40.000 backlinks de páginas porno y de sexo, rusas… Y aun así sigo en primera posición por muchas keywords ya desde hace 4 años.
Mi pregunta es si desde hace 4 meses que tengo estos backlinks no me ha penalizado Google, sigo con ellos o por el contrario me curo en salud y los intento eliminar?
Gracias!
Hola Monica.
Deberías ir limpiando, tener un buen perfil de enlaces es salud para la web y eliminar todos esos backlinks te va a llevar tiempo.
Cuando termines de limpiar enlaces estaría bien que te pases a contarnos los resultados.
Hola Marco!
Muchas gracias por ésta literatura indispensable.
Hay puntos que no termino de comprender del todo pero es solo por mi nivel. Voy a leer el link que compartís y luego vuelvo a la carga con éste.
Un abrazo!
Buenas Marcelo.
Poco a poco, seguro que con una relectura terminas por comprenderlo perfectamente 😉
Otro abrazo para ti.
Hola como siempre es un gusto leer este blog y me parecen muy buenos los pasos a seguir, tenia tiempo queriendo editar el robots.txt y lo había dejado pasar.
Se agradece todo lo que haces Dean, Saludo desde México.
YEAH!
Gracias nadie, solo tratamos de hacer lo mejor posible nuestro trabajo
Buenas nadie007, nombre de agente secreto en incógnito total jejeje.
Gracias por pasarte, creo que con la información del post tienes información de sobra para editar el robots y dejarlo perfecto.
Ya nos contarás los resultados 😉
Tengo muchas ganas de conocer México, es un país que tengo que visitar.
Un abrazo.
Me súper encanto el post Dean y sobre el archivo de la auditoria me quedo de perla para mi trabajo y puedo asegurar que yo soy una persona que ando aprendiendo igual mucho de SEO con tus post. Y aprovecho para decir que he visto que muchos de tus colaboradores fueron lectores de tu blog y me gustaría saber como unirme a ese gran equipo. Realmente yo he llevado mi formación SEO a través de lectura y particularmente en México donde vivo, he tomado cargos como experto en SEO, pues no muchos al menos conocen como funciona gran parte del posicionamiento web y puedo decirte que yo me he logro defender muy bien en estos años. El problema es que jamas he tenido la oportunidad de trabajar con alguien cuyos conocimientos sean increíbles como los tuyos, por que como mencione aquí en México son muy pocos los expertos. Y pues espero puedas leer mi comentario y ver si me puedes dar una oportunidad para colaborar o al menos ayudarme a aprender mucho más sobre esta área que me apasiona, saludos
puedes levantar a nivel SEO Blogger3cero? 😉
yo puedo pero no tengo tiempo
una cosa… que suele ser imprescindible para mí para el equipo es que sea gente que viva en España y más concretamente en Madrid
Por lo que veo que me dice AHREF y SEMRUSH el sitio web tiene una excelente autoridad y tráfico web, por ejemplo me muestra que la búsqueda de "majestic seo" tu página en este caso la de Blogger3cero, esta en la posición 2 de Google y algo que estoy notando es que el primer resultado es de la herramienta, mientras tanto los demás son de tutoriales sobre como usar majestic SEO, entonces lo que yo haría seria generar un snippet bait, para mejorar el raking y pasar a la posición 1, pues al final se muestra que la intención de búsqueda va orientada a "tutoriales de como usar la herramienta y no a la herramienta en si mismo", otro ejemplo es la keywords "dinorank enlazalia dosbit" el cual tiene un volumen de 24 mil visitas al mes, tu página esta en la posición 4, pero si analizamos el post, no menciona para nada dicha keywords (dinorank enlazalia dosbit) y por ello se puede mejorar el contenido agregandola para que en ese caso escale posiciones. Yo creo que si puedo subir el tráfico de nivel SEO, basándome en la experiencia que tengo, pues veo que tu web tiene 2 factores muy importantes, autoridad y antigüedad.
Desde hace cuanto tiempo conoces el proyecto B30? 🙂
Creo que desde hace un año, generalmente me llegan los correos cuando crear nuevos post y los guardo para leer y / o consultar cuando lo necesite.
Hola a todos
Tengo una duda existencial a ver si alguien sabe responderme.
En mi blog, en el código fuente html, todos los acentos y caracteres especiales están en forma de á ñ etc. en vez de directamente á, ñ…
Quería saber si puede ser un factor SEO que penalice o Google es capaz de interpretarlo sin problema, no he encontrado nada al respecto buscando en internet.
Millones de gracias
¡Marta!
Otra vez tú por aquí que fuerte 😀 cuánto tiempo, sigues leyendo Blogger3cero? 🙂
No penalizará tu blog eso compi, no te preocupes, solo es un tema de sintaxis de URL
Una cosa, te apetece si charlamos un día?
1 abrazo
¡Hola Dean!
¡Pero qué rapidez! Claro que te leo, fuiste el primer blog que empecé a leer sobre seo y, aunque no lo sepas, me has ayudado mucho, mucho, mucho.
Mil gracias por la respuesta, estaba un poco mosca con el tema y no encontraba solución por ningún sitio.
Sobre charlar, cuando quieras. Si quieres escríbeme al email y agendamos día.
Un abrazooo
Te mando un email ahora mismo compi
Un abrazo : )
Excelente articulo, lo he aplicado tiempo atrás y espere un poco a tener resultados para comentar. Creo que ha ido de maravillas!
Pero nose si me he pasado de la raya: mi web tiene 100 URLs (html). Antes de la optimización, Google crawleaba promedio 700 paginas/dia. Después de la optimización, promedio 2600/día. ¿Es normal? ¿No es un presupuesto demasiado elevado para un sitio tan chico?
En primer lugar quiero decir enhorabuena por este articulo muy pero muy util! Una duda: ¿dónde colocáis el noindex a las paginaciones? ¿Está colocado en el robot.txt? Espero que alguien puede contestar! Saludos, Mihai Dobre