Nichos y BlackHat: Iniciación a las Webs Automáticas en 2021

Picture of Dean Romero

Dean Romero

Hoy B30 se viste de negro 🎩  para adentrarnos en la parte más oscura del mundo nichero: webs automáticas. ¿En qué consisten? ¿Qué tipos de nichos automáticos existen y cómo se crean? ¿Es un modelo de negocio para ti?

Si lees asiduamente este blog es muy posible que tengas una visión más «white hatera» del mundo de los nichos, pero si por contra lees este post y te alucina lo que ves en él… quizás hayas encontrado una nueva forma que para ti funcione, de generar ingresos.

Las webs automáticas están de moda. Es una realidad.

Hoy te va a hablar de ellas alguien que sabe mucho más que yo al respecto. Concretamente uno de los miembros más activos de SEOWarriors, Manu Martín de SEOdeMadrugada.com, un podcast de programación y SEO técnico.

Con solo 17 años Manu experimenta con webs automáticas, programación, distintos aspectos del SEO técnico y cosas que sorprenderían a más de un «consultor SEO con traje y corbata».

Este artículo pretende ser una introducción para aquellas personas que quieren iniciarse en automáticas.

Si luego tú mismo/a quieres profundizar, podrás ver al final del artículo cómo, de la mano de un Titán y nuevo profe en la membresía. Pero eso lo dejamos para más tarde.

Hola {a {todos | tod@s} | nichero | blackhatero} 👨‍💻

Imagino que venís buscando cosas blackhateras y cómo scrapear miles de páginas, pero antes dame un momento que me voy a presentar.

Me llamo Manuel y llevo unos 2-3 años con todo lo que tiene que ver con webs, SEO, programación y todo lo que te puedas imaginar.

Ya lo siguiente es sacar un curso (es broma 😅). Si quieres saber un poco más sobre mí, te invito a que escuches mi podcast que ya ha mencionado Dean hace un momento.

Sobre todo hablo de SEO Técnico y Programación, que es lo que más me mola y lo más divertido de este mundo, bajo mi punto de vista personal.

Me dejo ya de rollos que seguro quieres escuchar cómo te puedes forrar con las automáticas 🤑 [modo ironía on].

¿Qué es una Web Automática?

Disclaimer
En este post en ningún caso se enseña cómo hacer automáticas ni es la guía definitiva, es una simple introducción para que te empiece a picar la curiosidad.

No te voy a decir lo mismo que te dice todo el mundo: ahora las automáticas son la panacea y la nueva revolución del SEO, y además trabajando 1 hora al día empezarás a ganar pasta en modo loco.

Y aunque sí es cierto que son una pasada en muchos sentidos, llevan existiendo desde hace muchos años y hay gente que lleva años probando y probando cosas, haciendo experimentos y sacando un buen dinero con ellas.

Hoy venimos a hacerlas aún más conocidas, si cabe, hablando de ellas en Blogger3cero.

Fuera de bromas, si quieres ganar dinero, como todo en la vida, le vas a tener que meter muuuuucho trabajo 💪

A continuación te quiero dar mi opinión sobre las webs automáticas.

Las automáticas son una manera de testear lo que funciona y lo que no funciona, de esta manera ahorrarenos tiempo y dinero.

Te pongo un ejemplo 👇

Vamos a suponer que atacamos la keyword: aspiradoras

Para un nicho «white», tendríamos que contratar a un redactor y encargarle unos 20-30 textos (por lo general).

30 textos * 15€/1000 palabras (por ejemplo) = 450 €

Súmale todo el tiempo que nos llevaría implementar los textos, ponerles un buen diseño y todo lo que se hace en un nicho «white».

Ahora vamos a a tacar la misma keyword, pero esta vez vamos a spinear el texto.

Un spintax es una manera de escribir artículos usando sinónimos, variaciones de palabras, párrafos…

Ejemplo:

{Bienvenido | Sea Bienvenido} {al {post | blog} de {B30 | Dean Romero} | a una  iniciación {a las webs automáticas | al blackhat | a técnicas que no le gustan a Google} | al post que te va a cambiar la vida}

Este spintax nos daría como resultado:

Sea Bienvenido al post que te va a cambiar la vida.

Sea Bienvenido al post de B30.

Bienvenido al blog de Dean Romero.

Y así con todas las combinaciones posibles 😀

Esto ha sido un mero ejemplo, pero se pueden hacer absolutas barbaridades.

Como te venía diciendo, de esta manera vamos a poder atacar muchísimas keywords y, sobre todo,  posicionar para longtails que no tienen mucha competencia .

Además, vas a poder ver qué keyword te merece la pena atacar y cuáles no.

Me explico, imaginemos que tenemos 1.000 URLs. Trackeando con Analytics y Search Console veremos cuál de ellas nos da más dinero 💸💸 y veremos también que hay ciertas URLs que despuntan y que merecen la pena ser trabajadas.

El siguiente paso sería hacer curación de contenido y la optimización del mismo.

Esto es una manera muy simple de explicar lo que hay que hacer; como te decía al principio, esto es una iniciación para que te hagas una idea general.

También podríamos hacer otro tipo de webs automáticas scrapeando y traduciendo, pero de esto mejor hablamos en la siguiente sección 👊

¿Quieres registrar dominios a precios increíbles?
DonDominio ofrece a los lectores de Blogger3.0 un 30% de descuento para altas y transferencias de .COM y .NET y altas de .ES. Descuento válido hasta el 31/12/2021 y limitado a 5 usos por cliente. Simplemente tienes que indicar el código BLOGGER3CERO21 en el proceso de compra para conseguirlo.

Tipos de Webs Automáticas

Como te venía diciendo, podemos dividir las webs automáticas en varios tipos según el método de hacerlas, pero también podríamos clasificarlas según el método de monetización.

Por el momento vamos a hablar sobre los 3 grandes tipos de webs automáticas que existen:

Spintax

Este es el tipo de web automática sobre la que hemos hablado antes. En estas webs lo más normal es hacer gran cantidad de páginas atacando a muchas keywords diferentes.

También suelen tener miles y miles de URLs con las que atacar keywords que tienen muy poca competencia y que nos pueden traer tráfico.

Una de las principales desventajas es el tiempo que te puede llevar hacer un buen spintax, ya que de lo contrario vas a tener contenido duplicado 😨

Para realizar esta técnica podemos usar 👇

En estas webs también vas a tener que tener el interlinking muy en cuenta para que Google Bot pueda llegar a todos los sitios y no haya URLs huérfanas y facilitarle el rastreo.

Para esto puedes usar 👇

Otra desventaja de este tipo de web es que hay que manejar muy bien la indexación, ya que nos interesa que se nos indexe todo el contenido posible cuanto antes.

Es un juego de cantidad.

En la indexación interfiere directamente el interlinking y otros factores obvios como la autoridad del dominio.

Web Scraping

La técnica de scraping, no te voy a mentir, es mi preferida.

Generalmente se mezcla con la traducción y de esta manera podemos coger webs enteras y ponerlas en español o viceversa.

Es decir, con herramientas como webscraper vamos a poder coger el contenido que nos interese de una web:

  • H1
  • H2
  • Title
  • Meta Description
  • Texto

Estas herramientas nos darían un archivo CSV el cual después de depurarlo y limpiarlo, nos quedaríamos solo con lo que nos interesa.

Ya por último, meteríamos el contenido en nuestra web con un plugin como WP all Import, si necesitamos meterlo en una web.

O analizar lo que hayamos scrapeado si lo que necesitamos es, por ejemplo, saber el precio medio de ciertos productos en un ecommerce.

Esto es solamente una manera de hacer scraping. Si tenemos que scrapear mucho contenido podríamos usar un scraper hecho a código con Selenium o Scrapy.

Y si prefieres JavaScript puedes usar Puppeteer, aunque ya te digo que esto solo es para webs muy muy grandes que necesites scrapear o por ejemplo si quieres scrapear Amazon y locuras así…

También podríamos usar Screaming Frog con la función de custom extraction y Xpath para sacar lo que queramos, aunque esto último está muy bien para ecommerce. Truco sacado de Victor Misa 🙂

Dejando de lado maneras de hacer scraping, ahora vamos a hablar un poco más sobre las ventajas y las desventajas de esta forma de hacer webs automáticas.

Una ventaja es que si sabes hacerlo o lo tienes automatizado es bastante rápido de hacer y al final todo el contenido que pongas en tu nicho va a ser contenido original 😀

Ya que Google no es capaz, por ahora, de detectar o comparar contenido entre países.

Y al contrario que con las webs espineadas, en ésta no te vas a tener que preocupar por la originalidad del texto ni nada por el estilo 😉

Aunque siempre es recomendable comprobar si el contenido está indexado.

Antes de continuar te quería comentar que el scraping no solo se reduce a extraer contenido y traducir, sino que también lo podemos usar en ecommerce por ejemplo para sacar el precio medio de nuestra competencia, como ya he comentado antes.

O en webs de clientes, a la hora de hacerle auditorías saber qué URLs tienen title o meta description.

O para extraer todas las imágenes de un sitio y saber cuál de ellas tienen alt y cuáles no… y cosas así (estas últimas funciones las hace Dinorank alegremente, por ejemplo).

De esto hablo más y mejor en este episodio de mi podcast (toma spam 👊).

Traducidas

Aunque ya he explicado en el apartado de scraping esta técnica y están estrechamente relacionadas, es muy interesante explicarlas en diferentes partes.

Vamos a comenzar hablando de herramientas para traducir 👇

La mejor herramienta para traducir textos, bajo mi punto de vista, es DeepL. Esto ya es de sobra conocido y si la mezclas con su API que vale 5 euros/mes puedes hacer maravillas.

Si mezclas por ejemplo DeepL con WP Automatic y te scrapeas una web, puedes tener proyectos con un contenido impresionante en muy poco tiempo y que hechas por redactores «white hat» hubieran costado mucho dinero, pero mucho…

Otra mezcla o prueba que podrías hacer, y que te aseguro funciona, es usar la herramienta de WP Content Bot + Lingvanex /DeepL. Esta herramienta es ideal para scrapear, spinear y divertirte un rato 🤣

Aunque si prefieres usar Screaming Frog que te da el contenido en un CSV, lo puedes pasar por Online Doc Translator y que se traduzca automáticamente

Y por último, te quiero dejar un tip que aunque ya esté bastante visto, nunca está de más comentarlo.

A la hora de traducir un texto en cualquier traductor lo que se suele hacer es esto 👇

Francés -> Español

Es decir, traducimos un texto del francés al español como se haría normalmente.

El problema es que esto nos da muchos errores y no tenemos una buena traducción.

Si lo hacemos así 👇

Francés -> Italiano -> Español

Es decir, pasándolo por varios idiomas, vamos a obtener una mejor traducción con menos errores.

Estos son los 3 grandes tipos de webs automáticas según la metodología que aplicas al hacerlas, pero es muy común mezclar y combinar distintas estrategias.

Otra forma de hacer webs, aunque esto no es una técnica de webs automáticas pero la quiero comentar ya que me parece interesante 👇

Se trata de pillar un buen dominio expirado (es bastante complicado) el cual haya tenido contenido interesante en un pasado y que podemos recuperar con archive.org

Una vez tengamos el contenido, podemos volverlo a poner en la web y saltarnos el sandbox y demás sin ningún tipo de problema 😆

Esto va a depender mucho del tipo de dominio que pilles, si tiene contenido indexado, autoridad, enlaces, histórico…

Esto es otra manera de hacer webs que no requiere de redactores y que permite que las webs indexen antes.

Para esta técnica podemos usar 👇

Aspectos a tener en cuenta

Pero claro, no todo va a ser scrapear contenido con webscraper y traducirlo con DeepL o hacer un spintax y generar miles de URLs con un simple click.

Tenemos que tener otros aspectos en cuenta para que nuestra web tenga un mínimo de posibilidades de triunfar.

Los principales aspectos que yo personalmente tengo en cuenta son los siguientes:

  • Interlinking
  • Indexación
  • Originalidad / Contenido
  • Autoridad
  • Keyword Research

Estos son los 5 aspectos principales que debemos tener en cuenta para que nuestra web tenga un mínimo de posibilidades de triunfar y no sea un estrepitoso fracaso.

Por otro lado, si te fijas, son aspectos fundamentales del SEO en general.

Se podría hacer un post de cada uno de estos puntos o aspectos, sobre todo del interlinking y de la indexación, ya que son fundamentales.

Además, y como es obvio, la autoridad que tenga la web y el dominio son factores clave; a mayor autoridad del dominio más va a rastrear nuestra web Google Bot y vamos a conseguir una mejor indexación.

También a mayor autoridad en general, y si no la cagamos con el link building (aquí podéis usar Growwer para ayudaros) mejor va a posicionar nuestra web y no me vengáis con la tontería de posicionar sin enlaces 😂

Otro aspecto que hay que tener en cuenta, sobre todo en las webs espineadas, es la originalidad del contenido. Para esto tenemos herramientas como Spintax.org

Y, obviamente, también la calidad del contenido ya que cuanto mejor sea el spintax que hayamos hecho y más currado esté, mejores textos vamos a poder sacar y mejor vamos a posicionar.

Y por último, y aunque estemos haciendo webs automáticas, el keyword research sigue siendo la parte más importante del nicho, ya que vamos  a seguir necesitando una buena estructura web.

Creo que vamos a ir terminado.

Espero que te haya gustado el post 😀

Personalmente he hablado desde mi experiencia y he intentado que se aproxime a la realidad lo máximo posible.

Las automáticas son una pasada, pero requieren de mucho trabajo y no es dinero gratis.

Hay gente mucho mejor que yo de la que podéis aprender al respecto.

¿Estás pensando en iniciarte en el mundo nichero blackhat? ¿Quieres montar tu primera web automática y no sabes por dónde empezar?

Pues entonces te espero en los comentarios.

Gracias Dean.

###

Twitter de Josma

¿Quieres aprender a hacer webs automáticas de la mano de un Pro que se dedica desde hace años a ello (y que gana bastante dinero con este tipo de nicho)?

👇

Suscríbete al Blog

Cada vez que publique un artículo o contenido chulo de SEO te avisaré por email

Picture of Dean Romero

Dean Romero

Mitad SEO, mitad blogger. Vivo de mi blog, mis nichos y la formación que imparto en posicionamiento web dentro de SEOWarriors.club. Tengo el orgullo de poder decir cosas tan molonas como que probablemente he conseguido crear el blog de SEO más leído en habla hispana o que en su momento ayudé a levantar una de las webs de animales más grandes del mundo en términos de tráfico web.
  • Si las webs automáticas están a full desde hace 1 año. Habrá 1ue moverle por ahí, saludos

  • Buenas a todos. estoy incursionando en el diseño de paginas y sitios web. he vistos las clase de josma y veo que me queda mucho camino por recorrer. pero me gusta el tema y hay voy. Josma te felicito por gran iniciativa y permitir que otros puedas tener ese conocimiento. Saludos desde Venezuela

  • ¿Cómo miráis vosotros la originalidad de los textos al traducirlos? Yo soy de coger frases entre comillas y ponerlas en google y ya. ¿Algún tip?

    • Hola Iñaki

      Si pones una frase en google lo que estas haciendo es comprobar si ese contenido esta ya indexado

      Me explico, cogemos una web en ingles y la traducimos, para comprobar si alguien lo ha hecho antes tenemos que hacer lo que tu haces

      Peor para medir la originalidad o calidad de un contenido spintax, tienes que utilizar una herramienta que te lo diga, por ejemplo spintax.org

    • Dean Romero dice:

      Eso es, tal y comenta Manu hacerlo así es más para comprobar indexación que otra cosa : )

  • hola, es muy interesante y bonito artículo, ilustra las dificultades que un blog tiene para posicionar si; no conoce fabricar las web automáticas que yo comprendo como sinónimo del contenido creado. He pensado hacer lo mismo pero todavía nada por ahora para adicionar contenido útil a mi web ya con el artículo presentado me debe resultar más fácil sus publicaciones y ganar tráfico con otras palabras claves y semejantes para posicionar.

  • Fernando DLn dice:

    excelente post, me alegra que otros lo estén haciendo de esta manera, pues hace poco comencé una web así… hace unos años cuando el SEO era más "fácil", tenía varias webs montadas así para monetizar con clickbank y me iba bastante bien, pero claro, canibalizaba mucho, metía enlaces basura y así jaja era obvio que no duraría mucho tiempo… luego dejé de hacerlo y me volví más white que la leche de cabra…

    hasta hace poco que empecé de nuevo con webs semiautomaticas, digo semi automáticas, porque la que recién comencé, hice un analisis de keywords como tal, es algo que nunca se me quitó y en vez de llenar mi blog con cientos y cientos de posts (aunque tmb tengo contenido generado por wp automatic en modo borrador para cuando necesite "actualizar" jeje) empecé a crear un sitio modo silo con sus url anilladas, clásico de:

    dominio.com/cluster/articulo1
    dominio.com/cluster/articulo2
    dominio.com/cluster/articulo3
    dominio.com/cluster2/articulo1
    dominio.com/cluster2/articulo2

    y así sucesivamente, pero mi método es:

    1. keyword research

    2. crear en un excel todas las URL que llevará el sitio, en este caso no es muy grande, son al rededor de 30 páginas y pues todos los posts que tengo en borrador para actualizar después

    3. uso article forge para crear el contenido (1500 a 2000 palabras en 1 minuto)

    4. optimizar y darle lógica al artículo (nunca salen 100% originales)

    5. ir publicando el contenido y darle prioridad a las URL que quiero posicionar dejandolas a 1 clic del home (lo usual)

    6. linkbuilding, en mi caso son más de perfil, foro, webs 2.0 y así… por ahí tengo una PBN que tmb le voy a meter a este nuevo proyecto

    7. ir actualizando con el contenido en borrado scrapeado por wp-automatic

    8. ir mejorando el contenido en base a las keys de GSC

    y básicamente es lo importante, pero en este caso me gustaría compartir que lo he aplicado para un sitio en un idioma extranjero en un nicho de salud, así es, me aventé a un nicho YMYL en otro idioma porque escuché que en otros países de europa el SEO está muy en pañales y parece que sí

    miren esto: https://prnt.sc/zx7wh8

    tiene unos 4 meses de vida, unos 3 artículos jaja, lo sé, son pocos, pero por motivos de atender la agencia tengo poco tiempo para este proyecto que ya vi, sí tiene potencial…

    https://prnt.sc/zx89us

    ya tiene una buena key casi brincando a la página 1 y otras 6 que ya empezaron a mostrarse en la SERP y solo tiene 3 artículos, cero backlinks, buen contenido bien optimizado y ya…

    yo vengo a dar mi testimonio de que sí, aun funcionan las webs automáticas… creo que empezaré una en español para amazon jeje

    saludos!!

  • monteskiu dice:

    Esta muy bien el post pero.. hasta cuando google lo permitirá? es decir miles de contenidos similares circulando y agregando el mismo valor.

  • Cj dice:

    Hola, tengo algunas preguntas sobre todo este asunto de hacer webs automáticas:

    -Se que puede existir la posibilidad de baneo (escuché a un Seo que le banearon, aunque no tengo muy claro si fue por una revisión de una web automática), ¿sabes cómo sería la mejor forma de crearme varias cuentas de Amazon afiliados? tengo una y como ya me está rindiendo (aunque poco) estoy pensando en crearme otras cuentas exclusivas para hacer webs automáticas (en especial siguiendo el modelo de Josma más que otra cosa).

    Ahora bien, ¿tendría que hacerme varias cuentas con diferentes e-mails y/o diferentes cuentas bancarias? en caso de ser con diferentes cuentas bancarias, ¿podrían ser con nombres inventados, o tu mismo nombre de DNI (ya repetido en la cuenta principal), o necesariamente tiene que ser la cuenta bancaria de otra persona y con el nombre de esa misma persona? en caso de que tuviera que ser con la cuenta bancaria y nombre de otra persona, ¿no pasaría que en caso de ganar un dinero considerable Amazon tendría que revisar las webs sabiendo que es esa misma persona la que lleva las webs, y no se vería obligada esa persona a pagar impuestos por tener su cuenta y su nombre involucrado?

    -A la hora de crear una nueva cuenta de Amazon, ¿qué debería de hacerse para que te den el aprobado en la revisión? ¿pasarle la web automática para que la vean u otra que no eche mano a técnicas de black hat?

    -Por último, así en general ¿qué precauciones principales me recomiendas tomar de cara a Google y a Amazon afiliados?

    Espero que no resulte mucho tostón el texto, me interesa mucho el black hat en general, pero antes de meterme quiero aventurarme con la cabeza bien fría siguiendo la experiencia de otros que ya estén en el tema, gracias.

    • Hola CJ

      Vamos por partes jajaja

      El riesgo de baneo de amazon viene cuando empieza a no cumplir sus directrices

      Por ejemplo, no indicar que participas en el programa de afiliados u poner imágenes de ellos sin la api

      Mientras cumplas con sus políticas a ellos les da igual que scrapes textos o que los generas con un spintax

      También es verdad que siempre es recomendable tener varias cuentas de amazon afiliados por si acaso te tumban una

      Para crearte la cuenta de amazon, tienes que usar un email, teléfono y demás diferentes

      Sobre el método de pago debes usar uno diferente ya que si no amazon te puede cazaría mejor prevenir que curar

      Espero que te haya ayudado saludos

  • andres rios dice:

    Hola !!

    Tengo un pequeño capital que estaba guardando para empezar a crear nichos en modo bulk de manera white, contratar redactores etc etc…. sin embargo, tambien estuve pensando si destinar ese capital y volcarlo a la creación de automaticas (?) por ejemplo si con el capital que tengo puedo hacer 50 webs de manera white, con el mismo capital podria probar no sé, 200 automaticas. Que piensas de esto para empezar ?

  • Raquel dice:

    Hola de nuevo;

    En primer lugar como habitual lectora de Dean, quiero felicitarte por tu artículo.

    En segundo lugar, quiero hacerte una rectificación, dobre un tema que se ha dichi aqui.

    Las imágenes de amazon las puedes usar, además lo pone en su politicas, mientras que no tengan derechos pertinentes, esto daría para un artículo.

    En fin un saludo y felicidades como siempre.

    Amazon pone todo ĺ

  • Antonio dice:

    Hola. Quisiera preguntaros si alguna vez habeis tenido problemas legales con webs traducidas. El tema del plagio es algo serio. Me gustaria saber mas acerca de vuestro punto de vista. ¿No os preocupa que os pongan una denuncia? Un saludo

    • Dean Romero dice:

      Este tipo de webs suelen estar algo ocultas o protegidas desde un punto de vista de identidad muchas veces

    • Antonio dice:

      Si, eso he visto en muchas de ellas, sin embargo se si interpone una denuncia por plagio imagino que la compañia de hosting o el registrador del dominio estara obligada a proporcionar los datos. Solo queria saber mas acerca de las responsabilidades legales de cometer plagio y sobretodo de si alguien se ha visto envuelto en algun proceso judicial por este tema. Un saludo

  • Un post muy interesante y un tema que llevo posponiendo mucho tiempo, pero donde me gustaría comparar resultados.

    Gracias por el consejo acerca de las traducciones anidadas 🙂

    Como a otros compañeros, me preocupa en cierta medida el tema legal, aunque entiendo que, a día de hoy, Google entiende una traducción como contenido original en nuestro idioma.

    Un saludo.

  • Carlos dice:

    El principal problema a la hora de creación de webs automáticas que he encontrado es la creación de spintax, antes de me demoraba has 2 días en la creación de estás, ahora uso xploremate y me va bien, pero me gustaría saber si alguien tiene alguna manera de hacerlo más rápido y de calidad, ojo pero sin comprarlo

  • Anderson dice:

    Soy nuevo en este tema de las Webs automáticas. Me gustaría saber si realmente valen la pena. Qué tanta rentabilidad se puede sacar con una web de este tipo?

  • Tengo una duda: Una web automática no «publica» solo el contenido en la web? Hasta donde entendí, el proceso involucra publicación manual. O entendí mal?

  • >
    Scroll al inicio
    grupo
    100-nichos

    Únete a mi comunidad y obtén gratis mi ebook

    100 nichos potencialmente rentables de Adsense y Amazon a atacar en 2024