Google sin sanciones algorítmicas

Ya no hay más penalizaciones algorítmicas de Google Panda y Google Penguin


Si te parece que esto puede ser algo "increíble" o difícil de aceptar por lo que encuentras escrito sobre esto, no lo es y ello tienen una razón y no es "venderte algo" o mejor dicho, capturar un cliente a cualquier costo, lo siguiente no es simplemente algo que "se dice por decirlo", está basado en base al conocimiento y la experiencia de haberme obsesionado analizando cientos y cientos de casos de sitios sancionados y con pérdidas de posicionamiento y cómo salir de ese precipicio en el que caían, pero ahora vamos a lo básico que debemos comprender y veremos a continuación.



La ilusión de una penalización que no existe

Una sanción algorítmica es algo que siempre sale a consideración ante cualquier perdida de posicionamiento en la mayoría de los casos, al menos así se puede ver cuando tanto propietarios como SEOs no pueden explicar o no se encuentra una posible razón sin ahondar en el verdadero problema.

Esta "duda" sobre una penalización surge por el desconocimiento que existe del medio (Google) al momento actual, es decir, del propio buscador de Google y cómo este procede en la actualidad aunque por supuesto, por todo lo que se encuentra escrito alrededor de esto que es vendido comercialmente en muchos casos para "prestar un servicio" infundado temor y aprovechándose del desconocimiento que existe entre otros aspectos, lo que realmente está lejos de la ética de trabajo en un área como esta, como por ejemplo sucede cuando se argumenta que se debe a una afectación de un tercero (llamado SEO negativo) y que ello ha causado "la acción de Google" que es sustentada implícitamente como una penalización o sanción del buscador.

Por supuesto una acción algorítmica de Google es un temor que se tiene entre otros, porque se cree que Google sancionará simplemente "porque sí y así sucede sin otra explicación" y el "síntoma" es una pérdida de posicionamiento, básicamente la misma creencia que existe con respecto a un "efecto sandbox" y ambas, tanto la penalización algorítmica como el sandbox de Google son "argumentos" que se usan cuando un consultor SEO no se puede explicar algo en la actualidad y para tomar el camino fácil, es lo que usan para explicárselo a su cliente.

Al día de hoy, luego de que Penguin fuera incorporado en el núcleo de Google (estamos hablando del 2016 cuando ello ocurrió), como parte de su algoritmo central, aún se puede ver como se sigue preguntando si "se debe a una penalización algorítmica", por colocar un ejemplo de inicios de mayo del 2018:

Y al igual que el ejemplo anterior, podría referir muchos otros que se ven cada día ante cualquier perdida en los rankings de los sitios en el buscador, como por ejemplo ha sucedido en el mes de agosto con una de las actualizaciones del núcleo del algoritmo principal de Google.

Muchas personas (incluso SEOs y empresas dedicadas a esto) aún creen que las sanciones algorítmicas de Panda y Penguin suceden en la actualidad y hasta que cualquier perdida de posicionamiento se debe a una sanción.

Al menos a ese "argumento" recurren cuando no logran explicárselo a sus clientes o a sí mismos porque "todo está bien" según lo concluyen, pero no es así, se pueden decir que es hasta normal que lo hagan, eso una de las cosas que vende comercialmente por empresas SEO quienes se dedican a esto, además es lo que venden las herramientas SEO que usan como aquellas que hablan de los "enlaces ponzoñosos/venenosos/tóxicos/malignos/diabólicos/más malos que Thanos" y donde supuestamente estos pueden afectar la clasificación del sitio en los resultados de Google, implicando por defecto con ello que en efecto existe una sanción algorítmica de Google.

Pero una cosa es como quieren vender la idea y si el cliente se cree ello y otra muy distinta, cómo Google realmente trabaja de su lado.

He tenido que asesorar casos dónde se ha creído casi que ciegamente que el sitio estaba siendo afectado por una sanción cuando realmente no era así, uno de esos casos que recuerdo al día de hoy, podría decir que no ha cambiado mucho.

Entre creencias de sanciones y esperanzas de un mejor posicionamiento

Hace unos años tuve un caso de un sitio web que fue sancionado manualmente por Google por esquemas de enlaces en un nicho altamente competitivo en todos los aspectos, tanto en el mundo online de cara al buscador de Google como en el mundo offline, al sitio se le removió la acción manual y luego de depurar y limpiar el perfil de enlaces hacia el sitio y de decirle a su propietario que línea debía seguir, y aún cuando ya lo había confirmado que no era así, esta persona seguía convencido de que el sitio estaba sancionado algorítmicamente por los enlaces, pero el sitio ya mostraba claramente que no era así con tan solo revisar aspectos de su rendimiento en la búsqueda de Google, la limpieza de los enlaces había sido correcta a todo nivel y Google mostraba que donde incluso antes el sitio por la sanción había dejado de ser competitivo ahora volvía a hacerlo.

El problema radicaba en que el propietario del sitio seguía creyéndolo porque este pensaba que "el sitio debía retornar a sus posiciones anteriores" con lo que tenía puesto que así se había posicionado; por supuesto dichas posiciones habían sido logradas con los enlaces con anchortex que habían propiciado un posicionamiento artificial, lo que originó la acción manual y donde por supuesto, el corregir ello implicaba lógicamente que el sitio ya no se beneficiaría del efecto de aquellos enlaces que se debieron remover.

Por supuesto ante la lógica de creer que el sitio debía retomar posicionamiento solo haciendo algunos ajustes menores era algo simplemente, un poco más que complicado de que sucediera, sin importar como se explicara, la idea estaba fijamente arraigada de que existía una "sanción algorítmica" y se dedicó a "cazar enlaces spam", lo que por supuesto nunca entregó el resultado que esperaba por más que desautorizaba enlaces.

Aquí es cuando dices que:

"Quien no quiere ver, encontrará en la luz una de las razones para decir que está ciego"

Algo completamente carente de sentido por supuesto y aún cuando me siga pareciendo sorprendente, casos como el anterior descrito aún los sigo viendo hoy en día.

Por lo anterior es necesario comprender un poco más o mejor como trabaja Google.



Un poco de contexto histórico

Las sanciones algorítmicas de Google (SAG) surgieron como un medio de control ante aquellas practicas spam, practicas de manipulación del posicionamiento orgánico y por supuesto, en contra de las directrices de Google teniendo como finalidad, procurar mejores resultados en las búsquedas.

Las SAG tomaron su protagonismo en el mundo del SEO cuando se lanzó un algoritmo en el 2011 llamado con el nombre clave de "Panda" y posteriormente con el algoritmo llamado "Penguin" en el 2012.

Desde el primer lanzamiento y luego de que el mundo conociera lo que serían sus efectos, con el pasar del tiempo la sospecha de una sanción se convirtió en el terror de muchos propietarios de sitios, por lo que estas comenzaron a mostrar cómo efecto, drásticas perdidas de posicionamiento y en muchos casos esto dibujaba un precipicio en sus estadísticas y tras cada actualización era aún peor cuando el algoritmo actuaba sobre un sitio que no cumpliera las directrices de calidad de Google.

Desde febrero de 2011 como fecha de lanzamiento de Google Panda hasta enero de 2016 cuando se confirmó por Google que Panda ya ha sido incorporado en su algoritmo central y después de más de 28 actualizaciones confirmadas, las sanciones algorítmicas de Panda llegaron a su fin.

Sucedió lo mismo con Google Penguin tras su lanzamiento en abril de 2012 y su incorporación el en núcleo en el 2016







Entendiendo el efecto que sucedía al ser sancionado algorítmicamente

Para comprender el efecto de una sanción algorítmica sobre un sitio web necesitamos, por supuesto, comprender como esto funciona, primero debemos partir del hecho de que Panda y Penguin eran algoritmos paralelos (AlgPar), es decir, que no estaban integrados al algoritmo central y corrían, por así decirlo, en paralelo.

Al no estar integrados significaba que (y para comprenderlo de una forma sencilla lo explicare de la siguiente forma) lo que estos AlgPar entregaban como resultado se convertía en lo que podemos describir como un "modificador" (o bandera) que el algoritmo central recibía entre otros datos y por supuesto, este "modificador" no cambiaría dentro del algoritmo central hasta la siguiente ejecución (ciclo de revisión u actualización de sus versiones) del algoritmo paralelo en cuestión (Panda ó Penguin) y si y solo si, se cumplían los criterios necesarios.

Ahora que tenemos el contexto anterior, podemos describir mejor que es lo que Google hacía, entonces y para resumirlo de una forma sencilla tenemos:

[1] - Un sitio es revisado por los AlgPar

[2] - Se detecta una o más infracciones en donde debe actuar alguno de los dos algoritmos o incluso ambos.

[3] - Se establece el modificador y este se convierte en un regulador que junto con los otros datos que establecen la dimensión de la afectación en la clasificación acorde al tipo de infracción que se presente entre otros.

[4] - El modificador cambiará en el tiempo si y solo sí:
    [4.1] - Se ejecuta un nuevo ciclo de evaluación (también por una actualización en la versión)
    [4.2] - El resultado es que el sitio ha corregido significativamente (completamente según el caso)

[5] - Si se cumplen las dos condiciones, el modificador desaparecerá y entonces, se removerá este y el efecto existente en el algoritmo central.


Nota 1:
De [4], deducimos que existe un "tiempo" establecido entre la ejecución de los ciclos de revisión de un sitio web en los AlgPar y/o la actualización de las versiones, este tiempo es parte esencial de lo que es una penalización, ya sea algorítmica o manual.

Nota 2:
De [4.1] y [4.2], hay que mencionar que, para aquellos casos de sitios que se encontraban en una zona muy "gris" (entre el bien y el mal por así llamarlo) ante la sanción algorítmica, podrían llegar a pasar incluso varias actualizaciones de versiones de los algoritmos antes de ver algún "progreso" y es en ello cuando prevalecerá una correcta evaluación del sitio así como hay que hacerlo hoy en día cuando un sitio es reclasificado de la noche a la mañana.




Lo anterior se puede aplicar sin problemas cómo trabaja una sanción manual, en donde el ciclo de revisión es desatado por la solicitud de una reconsideración y el tiempo que tome Google en revisarla, verificar que todo esté bien (lo que puede tardar entre unos días y varias semanas) y que luego de que comprueben que la infracción está completamente corregida, se removerá la acción manual.



¿Porqué es importante comprender lo anterior?, porque de cara al SEO es muy importante entender como funciona Google, de esta forma cuando estás al tanto y completamente actualizado de cómo Google trabaja, comprendes a qué tipo de problema te enfrentas en cada momento del tiempo y en qué es lo que verdaderamente debes centrarte.



Un ejemplo práctico, sanción por esquema de enlaces hacia el sitio

Si bien este tipo de sanción manual se podría decir que en el momento actual está en vía de extinción, se produce cuando Google detecta enlaces manipuladores y por ende artificiales, para el caso sucede algo como esto:


  • Se impone la sanción y se notifica al sitio (sucede en ese orden)
  • La sanción (el modificador) implica que el efecto que estos enlaces hacia el sitio tienen en los rankings será removido y ello podrá tener incidencia tanto sobre enlaces artificiales como sobre los naturales (por supuesto hay muchos otros casos de acciones que toma Google según el caso).
  • La sanción no se retirará hasta que el webmaster del sitio haya tomado las acciones para limpiar completamente el perfil de enlaces de aquellos no naturales, si esto por ejemplo se hace de forma parcial, la sanción no será removida.
  • Una vez se haya corregido completamente y se envíe la reconsideración, Google revisará  y al comprobar que la corrección se ha llevado a cabo, permitirá que los enlaces naturales vuelvan a sumar para efectos de la clasificación orgánica.
Nota 1:
En anterior ejemplo es solo una descripción muy genérica y básica puesto que existen muchos otros casos a considerar como por ejemplo, afectaciones


Lo anteriormente descrito a modo de ejemplo operaba igual para la sanción algorítmica era muy similar en su funcionamiento a lo que la es una penalización manual.




¿Qué significa hacer parte del algoritmo central de Google?

Esto es lo importante que se debe comprender y entender, como ya mencioné antes, cuando Panda y Penguin surgieron eran funciones (algoritmos) que se iban mejorando con cada actualización y los cuales no estaban integrados dentro del algoritmo principal como funciones.

Esto tenía en sí mismas dos razones principales que se pueden deducir, la primera el poder establecer que estos podrían identificar y actuar en aquellos casos y aspectos para los que estaban programados, por ejemplo y en el caso de Penguin, la detección del texto oculto (u enlaces ocultos con anchortext) en un sitio web buscando manipular la clasificación y la segunda razón, la integridad, es decir, revisar que actúen sobre los sitios en los que deben hacerlo y no sobre otros.

Esto es algo que básicamente se puede resumir en algo muy simple, depuración de cualquier aspecto de funcionamiento para estar seguros que el algoritmo trabajaba bien ante cualquier escenario.

Por lo mismo cuando Google decide hacer parte de su núcleo los algoritmos de Panda y Penguin, es porque ya se han depurado lo suficiente y han obtenido un nivel de especialización lo suficientemente alto.

Esto se puede ver explicado por Andrey Lipattsev (empleado de Google) cuando en un hangout comenta que cuando un algoritmo que corre en paralelo es incluido en el algoritmo principal, quiere decir que ya no necesitan saber cómo funciona porque ha sido probado y ahora puede funcionar solo sin preocupaciones.


Ahora que ya tenemos lo anterior podemos comprender lo siguiente.



¿Porqué ya no hay más sanciones algorítmicas?

Cuando se dice que ya no hay más sanciones algorítmicas se explica en fundamentos básicos como los anteriores y es algo sencillo que se describe lógicamente de la siguiente forma:

Al estar Panda y Penguin dentro del algoritmo central, quiere decir que:

[1] - No hay más tiempo de penalización
Ya no existe el "tiempo de penalización", lo que determina por defecto que no existe más una sanción puesto que antes, aún cuando se corrigiera completamente (supongamos una sanción por enlaces artificiales), se debía esperar a que se ejecutara el nuevo ciclo de revisión y si ello ocurría en, por ejemplo y por decir algo, 3 meses, entonces la sanción se mantenía por 3 meses sin importar que ya hubiera sido corregido el problema.

[2] - Entre el mismo ciclo de ejecución del algoritmo principal
El resultado entregado por estos dos sucede en tiempo real dentro la ejecución del algoritmo principal, es decir, que los cambios, correcciones y/o mejoras se procesan y tendrán un efecto directo.



Entonces ahora podemos resumirlo de una forma sencilla, una vez  que Panda y Penguin fueron incorporados en el algoritmo central, se acabaron las penalizaciones algorítmicas.

No quiere decir que un futuro no puedan surgir otras, aunque actualmente lo veo difícil por la forma en la que Google viene trabajando y la experiencia ya obtenida, pero en la actualidad, son solo un recuerdo de época.



Por eso cuando te digan que:

"La perdida de posicionamiento de tu sitio web se debe a una sanción de Google"

Pregúntale luego el porqué y siéntate con palomitas de maíz, verás "unos saltos de película de acción" en la argumentación y muchos vacíos en los diálogos del guión, pasaras a las explicaciones de ciencia ficción por los "ataques tóxicos" que se convertirán en dramáticas cuando te expliquen cómo "a cientos les sigue ocurriendo lo mismo" y terminarás viendo una cómica adaptación de las directrices de Google.


¿Tu sitio web se ha visto afectado en su posicionamiento?



Comentarios