Hoy B30 se viste de negro 🎩 para adentrarnos en la parte más oscura del mundo nichero: webs automáticas. ¿En qué consisten? ¿Qué tipos de nichos automáticos existen y cómo se crean? ¿Es un modelo de negocio para ti?
Si lees asiduamente este blog es muy posible que tengas una visión más «white hatera» del mundo de los nichos, pero si por contra lees este post y te alucina lo que ves en él… quizás hayas encontrado una nueva forma que para ti funcione, de generar ingresos.
Las webs automáticas están de moda. Es una realidad.
Hoy te va a hablar de ellas alguien que sabe mucho más que yo al respecto. Concretamente uno de los miembros más activos de SEOWarriors, Manu Martín de SEOdeMadrugada.com, un podcast de programación y SEO técnico.
Con solo 17 años Manu experimenta con webs automáticas, programación, distintos aspectos del SEO técnico y cosas que sorprenderían a más de un «consultor SEO con traje y corbata».
Este artículo pretende ser una introducción para aquellas personas que quieren iniciarse en automáticas.
Si luego tú mismo/a quieres profundizar, podrás ver al final del artículo cómo, de la mano de un Titán y nuevo profe en la membresía. Pero eso lo dejamos para más tarde.
Índice del artículo
Hola {a {todos | tod@s} | nichero | blackhatero} 👨💻
Imagino que venís buscando cosas blackhateras y cómo scrapear miles de páginas, pero antes dame un momento que me voy a presentar.
Me llamo Manuel y llevo unos 2-3 años con todo lo que tiene que ver con webs, SEO, programación y todo lo que te puedas imaginar.
Ya lo siguiente es sacar un curso (es broma 😅). Si quieres saber un poco más sobre mí, te invito a que escuches mi podcast que ya ha mencionado Dean hace un momento.
Sobre todo hablo de SEO Técnico y Programación, que es lo que más me mola y lo más divertido de este mundo, bajo mi punto de vista personal.
Me dejo ya de rollos que seguro quieres escuchar cómo te puedes forrar con las automáticas 🤑 [modo ironía on].
¿Qué es una Web Automática?
No te voy a decir lo mismo que te dice todo el mundo: ahora las automáticas son la panacea y la nueva revolución del SEO, y además trabajando 1 hora al día empezarás a ganar pasta en modo loco.
Y aunque sí es cierto que son una pasada en muchos sentidos, llevan existiendo desde hace muchos años y hay gente que lleva años probando y probando cosas, haciendo experimentos y sacando un buen dinero con ellas.
Hoy venimos a hacerlas aún más conocidas, si cabe, hablando de ellas en Blogger3cero.
Fuera de bromas, si quieres ganar dinero, como todo en la vida, le vas a tener que meter muuuuucho trabajo 💪
A continuación te quiero dar mi opinión sobre las webs automáticas.
Las automáticas son una manera de testear lo que funciona y lo que no funciona, de esta manera ahorrarenos tiempo y dinero.
Te pongo un ejemplo 👇
Vamos a suponer que atacamos la keyword: aspiradoras
Para un nicho «white», tendríamos que contratar a un redactor y encargarle unos 20-30 textos (por lo general).
30 textos * 15€/1000 palabras (por ejemplo) = 450 €
Súmale todo el tiempo que nos llevaría implementar los textos, ponerles un buen diseño y todo lo que se hace en un nicho «white».
Ahora vamos a a tacar la misma keyword, pero esta vez vamos a spinear el texto.
Un spintax es una manera de escribir artículos usando sinónimos, variaciones de palabras, párrafos…
Ejemplo:
{Bienvenido | Sea Bienvenido} {al {post | blog} de {B30 | Dean Romero} | a una iniciación {a las webs automáticas | al blackhat | a técnicas que no le gustan a Google} | al post que te va a cambiar la vida}
Este spintax nos daría como resultado:
Sea Bienvenido al post que te va a cambiar la vida.
Sea Bienvenido al post de B30.
Bienvenido al blog de Dean Romero.
Y así con todas las combinaciones posibles 😀
Esto ha sido un mero ejemplo, pero se pueden hacer absolutas barbaridades.
Como te venía diciendo, de esta manera vamos a poder atacar muchísimas keywords y, sobre todo, posicionar para longtails que no tienen mucha competencia .
Además, vas a poder ver qué keyword te merece la pena atacar y cuáles no.
Me explico, imaginemos que tenemos 1.000 URLs. Trackeando con Analytics y Search Console veremos cuál de ellas nos da más dinero 💸💸 y veremos también que hay ciertas URLs que despuntan y que merecen la pena ser trabajadas.
El siguiente paso sería hacer curación de contenido y la optimización del mismo.
Esto es una manera muy simple de explicar lo que hay que hacer; como te decía al principio, esto es una iniciación para que te hagas una idea general.
También podríamos hacer otro tipo de webs automáticas scrapeando y traduciendo, pero de esto mejor hablamos en la siguiente sección 👊
Tipos de Webs Automáticas
Como te venía diciendo, podemos dividir las webs automáticas en varios tipos según el método de hacerlas, pero también podríamos clasificarlas según el método de monetización.
Por el momento vamos a hablar sobre los 3 grandes tipos de webs automáticas que existen:
Spintax
Este es el tipo de web automática sobre la que hemos hablado antes. En estas webs lo más normal es hacer gran cantidad de páginas atacando a muchas keywords diferentes.
También suelen tener miles y miles de URLs con las que atacar keywords que tienen muy poca competencia y que nos pueden traer tráfico.
Una de las principales desventajas es el tiempo que te puede llevar hacer un buen spintax, ya que de lo contrario vas a tener contenido duplicado 😨
Para realizar esta técnica podemos usar 👇
En estas webs también vas a tener que tener el interlinking muy en cuenta para que Google Bot pueda llegar a todos los sitios y no haya URLs huérfanas y facilitarle el rastreo.
Para esto puedes usar 👇
- Interlinking Manager
- Link Whisper (este no lo he probado)
- Si te aburres mucho y quieres morir en el intento, hazlos a mano.
Otra desventaja de este tipo de web es que hay que manejar muy bien la indexación, ya que nos interesa que se nos indexe todo el contenido posible cuanto antes.
Es un juego de cantidad.
En la indexación interfiere directamente el interlinking y otros factores obvios como la autoridad del dominio.
Web Scraping
La técnica de scraping, no te voy a mentir, es mi preferida.
Generalmente se mezcla con la traducción y de esta manera podemos coger webs enteras y ponerlas en español o viceversa.
Es decir, con herramientas como webscraper vamos a poder coger el contenido que nos interese de una web:
- H1
- H2
- Title
- Meta Description
- Texto
Estas herramientas nos darían un archivo CSV el cual después de depurarlo y limpiarlo, nos quedaríamos solo con lo que nos interesa.
Ya por último, meteríamos el contenido en nuestra web con un plugin como WP all Import, si necesitamos meterlo en una web.
O analizar lo que hayamos scrapeado si lo que necesitamos es, por ejemplo, saber el precio medio de ciertos productos en un ecommerce.
Esto es solamente una manera de hacer scraping. Si tenemos que scrapear mucho contenido podríamos usar un scraper hecho a código con Selenium o Scrapy.
Y si prefieres JavaScript puedes usar Puppeteer, aunque ya te digo que esto solo es para webs muy muy grandes que necesites scrapear o por ejemplo si quieres scrapear Amazon y locuras así…
También podríamos usar Screaming Frog con la función de custom extraction y Xpath para sacar lo que queramos, aunque esto último está muy bien para ecommerce. Truco sacado de Victor Misa 🙂
Dejando de lado maneras de hacer scraping, ahora vamos a hablar un poco más sobre las ventajas y las desventajas de esta forma de hacer webs automáticas.
Una ventaja es que si sabes hacerlo o lo tienes automatizado es bastante rápido de hacer y al final todo el contenido que pongas en tu nicho va a ser contenido original 😀
Ya que Google no es capaz, por ahora, de detectar o comparar contenido entre países.
Y al contrario que con las webs espineadas, en ésta no te vas a tener que preocupar por la originalidad del texto ni nada por el estilo 😉
Aunque siempre es recomendable comprobar si el contenido está indexado.
Antes de continuar te quería comentar que el scraping no solo se reduce a extraer contenido y traducir, sino que también lo podemos usar en ecommerce por ejemplo para sacar el precio medio de nuestra competencia, como ya he comentado antes.
O en webs de clientes, a la hora de hacerle auditorías saber qué URLs tienen title o meta description.
O para extraer todas las imágenes de un sitio y saber cuál de ellas tienen alt y cuáles no… y cosas así (estas últimas funciones las hace Dinorank alegremente, por ejemplo).
De esto hablo más y mejor en este episodio de mi podcast (toma spam 👊).
Traducidas
Aunque ya he explicado en el apartado de scraping esta técnica y están estrechamente relacionadas, es muy interesante explicarlas en diferentes partes.
Vamos a comenzar hablando de herramientas para traducir 👇
La mejor herramienta para traducir textos, bajo mi punto de vista, es DeepL. Esto ya es de sobra conocido y si la mezclas con su API que vale 5 euros/mes puedes hacer maravillas.
Si mezclas por ejemplo DeepL con WP Automatic y te scrapeas una web, puedes tener proyectos con un contenido impresionante en muy poco tiempo y que hechas por redactores «white hat» hubieran costado mucho dinero, pero mucho…
Otra mezcla o prueba que podrías hacer, y que te aseguro funciona, es usar la herramienta de WP Content Bot + Lingvanex /DeepL. Esta herramienta es ideal para scrapear, spinear y divertirte un rato 🤣
Aunque si prefieres usar Screaming Frog que te da el contenido en un CSV, lo puedes pasar por Online Doc Translator y que se traduzca automáticamente
Y por último, te quiero dejar un tip que aunque ya esté bastante visto, nunca está de más comentarlo.
A la hora de traducir un texto en cualquier traductor lo que se suele hacer es esto 👇
Francés -> Español
Es decir, traducimos un texto del francés al español como se haría normalmente.
El problema es que esto nos da muchos errores y no tenemos una buena traducción.
Si lo hacemos así 👇
Francés -> Italiano -> Español
Es decir, pasándolo por varios idiomas, vamos a obtener una mejor traducción con menos errores.
Estos son los 3 grandes tipos de webs automáticas según la metodología que aplicas al hacerlas, pero es muy común mezclar y combinar distintas estrategias.
…
Otra forma de hacer webs, aunque esto no es una técnica de webs automáticas pero la quiero comentar ya que me parece interesante 👇
Se trata de pillar un buen dominio expirado (es bastante complicado) el cual haya tenido contenido interesante en un pasado y que podemos recuperar con archive.org
Una vez tengamos el contenido, podemos volverlo a poner en la web y saltarnos el sandbox y demás sin ningún tipo de problema 😆
Esto va a depender mucho del tipo de dominio que pilles, si tiene contenido indexado, autoridad, enlaces, histórico…
Esto es otra manera de hacer webs que no requiere de redactores y que permite que las webs indexen antes.
Para esta técnica podemos usar 👇
- Archive
- Ahrefs
- Youdot (poco recomendable con su última actualización)
- Spamzilla
- Expirados.top
Aspectos a tener en cuenta
Pero claro, no todo va a ser scrapear contenido con webscraper y traducirlo con DeepL o hacer un spintax y generar miles de URLs con un simple click.
Tenemos que tener otros aspectos en cuenta para que nuestra web tenga un mínimo de posibilidades de triunfar.
Los principales aspectos que yo personalmente tengo en cuenta son los siguientes:
- Interlinking
- Indexación
- Originalidad / Contenido
- Autoridad
- Keyword Research
Estos son los 5 aspectos principales que debemos tener en cuenta para que nuestra web tenga un mínimo de posibilidades de triunfar y no sea un estrepitoso fracaso.
Por otro lado, si te fijas, son aspectos fundamentales del SEO en general.
Se podría hacer un post de cada uno de estos puntos o aspectos, sobre todo del interlinking y de la indexación, ya que son fundamentales.
Además, y como es obvio, la autoridad que tenga la web y el dominio son factores clave; a mayor autoridad del dominio más va a rastrear nuestra web Google Bot y vamos a conseguir una mejor indexación.
También a mayor autoridad en general, y si no la cagamos con el link building (aquí podéis usar Growwer para ayudaros) mejor va a posicionar nuestra web y no me vengáis con la tontería de posicionar sin enlaces 😂
Otro aspecto que hay que tener en cuenta, sobre todo en las webs espineadas, es la originalidad del contenido. Para esto tenemos herramientas como Spintax.org
Y, obviamente, también la calidad del contenido ya que cuanto mejor sea el spintax que hayamos hecho y más currado esté, mejores textos vamos a poder sacar y mejor vamos a posicionar.
Y por último, y aunque estemos haciendo webs automáticas, el keyword research sigue siendo la parte más importante del nicho, ya que vamos a seguir necesitando una buena estructura web.
Creo que vamos a ir terminado.
Espero que te haya gustado el post 😀
Personalmente he hablado desde mi experiencia y he intentado que se aproxime a la realidad lo máximo posible.
Las automáticas son una pasada, pero requieren de mucho trabajo y no es dinero gratis.
Hay gente mucho mejor que yo de la que podéis aprender al respecto.
¿Estás pensando en iniciarte en el mundo nichero blackhat? ¿Quieres montar tu primera web automática y no sabes por dónde empezar?
Pues entonces te espero en los comentarios.
Gracias Dean.
###
¿Quieres aprender a hacer webs automáticas de la mano de un Pro que se dedica desde hace años a ello (y que gana bastante dinero con este tipo de nicho)?
👇
Si las webs automáticas están a full desde hace 1 año. Habrá 1ue moverle por ahí, saludos
Hola Luis
La verdad es que si que están a tope, pero como todo son modas
Las automáticas te ayudan a testear y probar muchísimas cosas, por eso aunque no seas "black" creo que hay que aprender a hacerlo
Además cosas como el scraping, técnicas mas oscuras y demás si las aprendes es un recurso mas que tienes
Todo suma! Saludos
Está genial el post Manu!
La verdad es que lo de las webs automáticas es un mundo muy interesante.
Merece la pena investigar más sobre el tema 🧐
¡Un abrazo cracks!
¡Mi trafficker por aquí!
No sabía que querías ser nichero black hat 😀 jajaja
ídolo
Ya te digo Marcos, me han entrado ganas hasta a mí de probarlas, que soy súper white 🙄
jajaja
He de reconocer que jamás me han llamado la atención hasta este momento
veo sentido que una parte de lo que hacemos en el departamento nichero se enfoque en automáticas, tras ver las cosas que cuenta Manu o los vídeos de Josma en SEOWarriors
Buenas a todos. estoy incursionando en el diseño de paginas y sitios web. he vistos las clase de josma y veo que me queda mucho camino por recorrer. pero me gusta el tema y hay voy. Josma te felicito por gran iniciativa y permitir que otros puedas tener ese conocimiento. Saludos desde Venezuela
Hola Yampierre
En este mundo siempre te queda camino por recorrer ya sea por un lado o por el otro
El post es de Manu
el curso es de Josma
🙂 jj
¿Cómo miráis vosotros la originalidad de los textos al traducirlos? Yo soy de coger frases entre comillas y ponerlas en google y ya. ¿Algún tip?
Hola Iñaki
Si pones una frase en google lo que estas haciendo es comprobar si ese contenido esta ya indexado
Me explico, cogemos una web en ingles y la traducimos, para comprobar si alguien lo ha hecho antes tenemos que hacer lo que tu haces
Peor para medir la originalidad o calidad de un contenido spintax, tienes que utilizar una herramienta que te lo diga, por ejemplo spintax.org
Muchas gracias. La verdad es que eso hago cuando hago los textos spintax, pero no sé porqué no lo miro realmente cuando cojo contenido traducido la verdad, tonterías mías jajjaja
Eso es, tal y comenta Manu hacerlo así es más para comprobar indexación que otra cosa : )
hola, es muy interesante y bonito artículo, ilustra las dificultades que un blog tiene para posicionar si; no conoce fabricar las web automáticas que yo comprendo como sinónimo del contenido creado. He pensado hacer lo mismo pero todavía nada por ahora para adicionar contenido útil a mi web ya con el artículo presentado me debe resultar más fácil sus publicaciones y ganar tráfico con otras palabras claves y semejantes para posicionar.
Hola Jorge
No se muy bien a que te refieres en el comentario
Déjame una pregunta mas clara o algo por el estilo y te contesto sin problema
Cuando quieras comenzar con automáticas aquí tienes un buen punto de partida
excelente post, me alegra que otros lo estén haciendo de esta manera, pues hace poco comencé una web así… hace unos años cuando el SEO era más "fácil", tenía varias webs montadas así para monetizar con clickbank y me iba bastante bien, pero claro, canibalizaba mucho, metía enlaces basura y así jaja era obvio que no duraría mucho tiempo… luego dejé de hacerlo y me volví más white que la leche de cabra…
hasta hace poco que empecé de nuevo con webs semiautomaticas, digo semi automáticas, porque la que recién comencé, hice un analisis de keywords como tal, es algo que nunca se me quitó y en vez de llenar mi blog con cientos y cientos de posts (aunque tmb tengo contenido generado por wp automatic en modo borrador para cuando necesite "actualizar" jeje) empecé a crear un sitio modo silo con sus url anilladas, clásico de:
dominio.com/cluster/articulo1
dominio.com/cluster/articulo2
dominio.com/cluster/articulo3
dominio.com/cluster2/articulo1
dominio.com/cluster2/articulo2
y así sucesivamente, pero mi método es:
1. keyword research
2. crear en un excel todas las URL que llevará el sitio, en este caso no es muy grande, son al rededor de 30 páginas y pues todos los posts que tengo en borrador para actualizar después
3. uso article forge para crear el contenido (1500 a 2000 palabras en 1 minuto)
4. optimizar y darle lógica al artículo (nunca salen 100% originales)
5. ir publicando el contenido y darle prioridad a las URL que quiero posicionar dejandolas a 1 clic del home (lo usual)
6. linkbuilding, en mi caso son más de perfil, foro, webs 2.0 y así… por ahí tengo una PBN que tmb le voy a meter a este nuevo proyecto
7. ir actualizando con el contenido en borrado scrapeado por wp-automatic
8. ir mejorando el contenido en base a las keys de GSC
y básicamente es lo importante, pero en este caso me gustaría compartir que lo he aplicado para un sitio en un idioma extranjero en un nicho de salud, así es, me aventé a un nicho YMYL en otro idioma porque escuché que en otros países de europa el SEO está muy en pañales y parece que sí
miren esto: https://prnt.sc/zx7wh8
tiene unos 4 meses de vida, unos 3 artículos jaja, lo sé, son pocos, pero por motivos de atender la agencia tengo poco tiempo para este proyecto que ya vi, sí tiene potencial…
https://prnt.sc/zx89us
ya tiene una buena key casi brincando a la página 1 y otras 6 que ya empezaron a mostrarse en la SERP y solo tiene 3 artículos, cero backlinks, buen contenido bien optimizado y ya…
yo vengo a dar mi testimonio de que sí, aun funcionan las webs automáticas… creo que empezaré una en español para amazon jeje
saludos!!
Hola Fernando
Gran comentario y muy buen testimonio
Las webs automáticas siguen y seguirán funcionando
Es verdad que en otros pasies de Europa las serps no son tan competidas y es un buen mercado donde moverse
Y a esa a darle caña que tiene buena pinta jajaj
Saludos
me ha parecido épica la parte de "me volví más white que la leche de cabra"
JAJAJA
Esta muy bien el post pero.. hasta cuando google lo permitirá? es decir miles de contenidos similares circulando y agregando el mismo valor.
Hola Monteskiu
Lo de contenido similares no estoy de acuerdo
Por ejemplo las webs traducidas desde otros idiomas es contenido original a los ojos de Google
Y con contenidos spineados no vas a hacer contenidos duplicados a no ser que hagas un mal spintax
Así que si, las automáticas seguirán funcionando
Saludos
es el mítico dilema, automáticas si automáticas no…
Hola, tengo algunas preguntas sobre todo este asunto de hacer webs automáticas:
-Se que puede existir la posibilidad de baneo (escuché a un Seo que le banearon, aunque no tengo muy claro si fue por una revisión de una web automática), ¿sabes cómo sería la mejor forma de crearme varias cuentas de Amazon afiliados? tengo una y como ya me está rindiendo (aunque poco) estoy pensando en crearme otras cuentas exclusivas para hacer webs automáticas (en especial siguiendo el modelo de Josma más que otra cosa).
Ahora bien, ¿tendría que hacerme varias cuentas con diferentes e-mails y/o diferentes cuentas bancarias? en caso de ser con diferentes cuentas bancarias, ¿podrían ser con nombres inventados, o tu mismo nombre de DNI (ya repetido en la cuenta principal), o necesariamente tiene que ser la cuenta bancaria de otra persona y con el nombre de esa misma persona? en caso de que tuviera que ser con la cuenta bancaria y nombre de otra persona, ¿no pasaría que en caso de ganar un dinero considerable Amazon tendría que revisar las webs sabiendo que es esa misma persona la que lleva las webs, y no se vería obligada esa persona a pagar impuestos por tener su cuenta y su nombre involucrado?
-A la hora de crear una nueva cuenta de Amazon, ¿qué debería de hacerse para que te den el aprobado en la revisión? ¿pasarle la web automática para que la vean u otra que no eche mano a técnicas de black hat?
-Por último, así en general ¿qué precauciones principales me recomiendas tomar de cara a Google y a Amazon afiliados?
Espero que no resulte mucho tostón el texto, me interesa mucho el black hat en general, pero antes de meterme quiero aventurarme con la cabeza bien fría siguiendo la experiencia de otros que ya estén en el tema, gracias.
Hola CJ
Vamos por partes jajaja
El riesgo de baneo de amazon viene cuando empieza a no cumplir sus directrices
Por ejemplo, no indicar que participas en el programa de afiliados u poner imágenes de ellos sin la api
Mientras cumplas con sus políticas a ellos les da igual que scrapes textos o que los generas con un spintax
También es verdad que siempre es recomendable tener varias cuentas de amazon afiliados por si acaso te tumban una
Para crearte la cuenta de amazon, tienes que usar un email, teléfono y demás diferentes
Sobre el método de pago debes usar uno diferente ya que si no amazon te puede cazaría mejor prevenir que curar
Espero que te haya ayudado saludos
Hola !!
Tengo un pequeño capital que estaba guardando para empezar a crear nichos en modo bulk de manera white, contratar redactores etc etc…. sin embargo, tambien estuve pensando si destinar ese capital y volcarlo a la creación de automaticas (?) por ejemplo si con el capital que tengo puedo hacer 50 webs de manera white, con el mismo capital podria probar no sé, 200 automaticas. Que piensas de esto para empezar ?
Hola de nuevo;
En primer lugar como habitual lectora de Dean, quiero felicitarte por tu artículo.
En segundo lugar, quiero hacerte una rectificación, dobre un tema que se ha dichi aqui.
Las imágenes de amazon las puedes usar, además lo pone en su politicas, mientras que no tengan derechos pertinentes, esto daría para un artículo.
En fin un saludo y felicidades como siempre.
Amazon pone todo ĺ
Hola. Quisiera preguntaros si alguna vez habeis tenido problemas legales con webs traducidas. El tema del plagio es algo serio. Me gustaria saber mas acerca de vuestro punto de vista. ¿No os preocupa que os pongan una denuncia? Un saludo
Este tipo de webs suelen estar algo ocultas o protegidas desde un punto de vista de identidad muchas veces
Si, eso he visto en muchas de ellas, sin embargo se si interpone una denuncia por plagio imagino que la compañia de hosting o el registrador del dominio estara obligada a proporcionar los datos. Solo queria saber mas acerca de las responsabilidades legales de cometer plagio y sobretodo de si alguien se ha visto envuelto en algun proceso judicial por este tema. Un saludo
Un post muy interesante y un tema que llevo posponiendo mucho tiempo, pero donde me gustaría comparar resultados.
Gracias por el consejo acerca de las traducciones anidadas 🙂
Como a otros compañeros, me preocupa en cierta medida el tema legal, aunque entiendo que, a día de hoy, Google entiende una traducción como contenido original en nuestro idioma.
Un saludo.
El principal problema a la hora de creación de webs automáticas que he encontrado es la creación de spintax, antes de me demoraba has 2 días en la creación de estás, ahora uso xploremate y me va bien, pero me gustaría saber si alguien tiene alguna manera de hacerlo más rápido y de calidad, ojo pero sin comprarlo
Soy nuevo en este tema de las Webs automáticas. Me gustaría saber si realmente valen la pena. Qué tanta rentabilidad se puede sacar con una web de este tipo?
Tengo una duda: Una web automática no «publica» solo el contenido en la web? Hasta donde entendí, el proceso involucra publicación manual. O entendí mal?