Entendiendo las actualizaciones de Google y sus efectos

Las actualizaciones de Google, la razón natural de que los sitios mejoren en sus rankings y también los pierdan 


Uno de los mayores problemas que tienen las empresas, negocios y personas que tienen un sitio web y no comprenden por qué su sitio ha perdido posiciones o no las gana en el buscador y por ende,  tráfico orgánico desde Google, es en gran parte a la información existente y el desconocimiento que hay sobre el buscador de Google.

Se pueden encontrar desde supuestos cientos de factores por quienes los esgrimen, que incluyen tanto empresas como personas, hasta falacias o teorías mono-factor (brindan como explicación, por ejemplo, diciéndote que es por causa que no tienes enlaces) cuando realmente no se hace el análisis que realmente se debe hacer, aunque si, te van a mostrar "análisis SEO" de tu sitio pero sobre los cuales las conclusiones no solo son erradas, en algunos casos son absurdas


Ahora veamos aspectos que se deben tener en cuenta para comprender mejor el porqué un sitio puede ver afectado (entiéndase positiva o negativamente) en su posicionamiento en cualquier momento.


Entendiendo a Google de una forma simple

    Google utiliza cientos de factores para la clasificación y constantemente estos evolucionan


    La adquisición del conocimiento sobre la información


    Las variaciones en el posicionamiento


    Los cambios en el propio sitio


    Los constantes cambios que Google realiza en sus algoritmos


    El cumplimiento de las directrices de Google


    Cuando te venden humo como "conocimiento SEO"



Entendiendo a Google de una forma simple

Hay consideraciones que se deben tener al momento de comprender un medio que está en una constante y frenética evolución, y no es exagerado decirlo de esa forma puesto que Google todos los días hace mejoras en lo que a su algoritmo de clasificación se refiere, en promedio, tres cambios o actualizaciones en sus algoritmos por día y esto no es ningún misterio, es dicho públicamente por Google: "Hacemos 3 actualizaciones por día en promedio" (Gary Ilyes)


Ahora veamos lo que debemos tener en cuenta para entender de una forma simple y básica el porqué puede suceder esto.

Google utiliza cientos de factores para la clasificación y constantemente estos evolucionan

Google posee cientos de factores para clasificar un sitio en una búsqueda cualquiera con la URL que considere más adecuada para la misma,

  • ¿Factores SEO para Google?

Es normal y correcto decir que Google posee más de doscientos factores pero la pregunta que habría que hacerse es ¿hace cuanto eran doscientos y cuántos son ahora?, cientos, y han evolucionado.

El buscador de Google es como tal un software, que tiene variables tanto de entrada como de salida en sus diferentes niveles (así como por ejemplo, las bases de datos) y funciones, estas funciones son en parte los llamados factores, cada función puede alimentarse de los resultados de otras funciones lo que básicamente dice que un factor podría tener cantidad de señales que son tenidas en cuenta para ofrecer un solo resultado que a su vez, puede servir para alimentar una variable que será parte de otra función para luego llegar a un resultado X.

Si quieres entenderlo de una forma más práctica, el algoritmo de Google es como el preparar una torta y dónde la variación de la calidad de uno de los ingredientes de la receta, la adición de otro así como la cantidad utilizada, y el tiempo en el proceso, afectará el sabor y consistencia del producto en su resultado final

Dentro de todo sistema hay funciones que no son para ofrecer un resultado, son más bien procesos que posteriormente generarán información que otra función procesará y evaluará acorde a unos criterios y parámetros (variables, ciclos de decisión, etc.)


Es normal que en todo proceso programático y evolutivo de un sistema (más aún en el caso de Google) las funciones y las variables crezcan en la medida que se logran comprender mejor los diferentes escenarios del medio y se logran definir de una mejor forma aquellos aspectos (variables) que pueden afectar el resultado y así mismo, identificar otros nuevos factores (funciones) que deben ser tenidos en cuenta para entregar un mejor resultado acorde a las políticas definidas, esto además de cuando se encuentra una forma más avanzada de hacer las cosas, una mejora, una evolución, lo que constantemente Google hace con sus algoritmos, es decir, mejorar sus versiones como sucedió con Google Panda y con Google Penguin y sus enunciadas actualizaciones por Google hasta que dejó de realizarlo.


Todo ello básicamente se condice con una fórmula matemática que está enfocada en resolver un problema y para poder determinar los diferentes escenarios en los que surgen los eventos, en la razón de que se comprende el medio donde sucede estos eventos, la formula se va alimentando de un mayor número de variables, sus valores y la forma en que estas se interrelacionan (los operadores); lo que hará que cada vez el resultado de la formula sea más preciso y concuerde de una mejor forma con los eventos que se presentan.

Es como lo que se narra en la película Interstellar, cuando dicen que hay una gran cantidad de información alrededor del agujero negro pero hasta que no se logre obtener la información del centro de la singularidad, la formula no podrá ser completada.


Gargantua, el agujero Negro de Interstellar


Pero el pequeño problema que hay con Google actualmente con su algoritmo de clasificación es que y haciendo un símil, sería una singularidad en movimiento y evolutiva, dónde la formula muta constantemente en el tiempo y si bien claramente tiene una dirección marcada, hay una enorme diferencia con lo que el medio y muchos supuestos referentes del SEO promueven, llevando consigo a tomar decisiones equivocadas y con consecuencias negativas y desastrosas hacia el posicionamiento y en dinero.


Si te preguntas como Google ha evolucionado, la mejor forma de verlo es a nivel de aquello que se ha convirtió en el paradigma del SEO, los backlinks, y que muchos de los que se dedican a esto aún se resisten a creer y siguen en función de ellos aún cuando raya en la obsolescencia.

Desde el 2009 Google anunció lo que sucedería, como lo haría y hacia dónde habría que ir

En el 2015 dejó de actualizar el famoso PageRank que se había convertido en su propio "demonio" pues todo el mundo se enfocaba en estos en vez de crear sitios de calidad hacia el usuario y naturalmente, porque aún no había dado el siguiente paso de evolución, el cual sucedió con Google Panda

En la actualidad y realmente desde hace muchos años (si, no es ni uno, ni dos, ni tres años), Google no requiere que un sitio tenga enlaces para convertirlo en el más relevante y claro, si le preguntas a alguien dedicado al SEO que vende enlaces y lo cual hace parte de lo que cobra, casi que te dirá que te jurará y perjurará que no es así y te dirá que así ha posicionado cantidad de sitios web y te mostrará otros con supuestos análisis de herramientas, etc.
  • La perdida de la noción SEO, la muerte del PageRank

Si quieres comprender gráficamente como podría ser el algoritmo de Google, este fácilmente podría llegar a verse como una red neuronal, aunque por supuesto, sería enorme por la cantidad de factores y señales que cada factor usaría.

Ejemplo de una red neuronal en el procesamiento de información
Red neuronal para el procesamiento de información - Google Summit Product Experts 2018

Ciertamente, se desconoce como los factores están interrelacionados (para aquellos que lo estén), como se balancean sus pesos (las conexiones entre factores) y como cada factor se alimenta.

La imagen está solo a modo de ejemplificación, es lo que se conoce como una red neuronal completamente interconectada y lo que ciertamente no establece que así sea como Google maneja esto de su lado en el relacionamiento de sus factores, las variables que estos tienen en cuenta, como un factor puede tener una incidencia en otro y su proporción (peso especifico) para generar un resultado.


Si tienes o has tenido una empresa, seguramente comprendes esto de una forma muy sencilla, puesto que has tenido que comprender que hace que vendas, que hace aumentar tus clientes, que los hace disminuir, que hace que tus procesos funcionen perfectamente y que los afecta, los cambios que vas experimentando en el tiempo en tu mercado con el surgimiento de nuevos actores y cambios en el medio por la evolución del mismo entre muchas otras cosas, cuando comienzas a profundizar en los detalles de ello, te das cuenta cómo vas formando una red, luego comienzas a comprender la importancia y como esto se conecta y así mismo, comienzas a ver como evoluciona en el paso del tiempo por ejemplo, en la que vas incorporando nuevas variables a tener en cuenta y eliminado otras.

De la misma forma, si quieres comprender lo que sería un factor, piensa en lo que un negocio de venta de alimentos, bebidas y varios (como un supermercado local) puede ver afectada sus ventas por la lluvia, y supongámos que esto sucede en el horario de 3 horas mayores ventas de dicho comercio, lo que llamaríamos un horario pico, si en ese periodo de 3 horas en el cual la afluencia de clientes es mayor llueve con gran intensidad, el número de clientes puede afectarse fuertemente, por lo que sus ventas podrían variar entre un 30% o 40%, diferente sería si la lluvia fuera muy suave, por lo que su afectación podría estar por debajo de un 5% en comparación a un día normal y esto haciendo un ejercicio completamente sencillo y sesgado, pero en realidad se deberían tener en cuenta una gran cantidad de factores que rodean y se interrelacionan con el comportamiento de las ventas de dicho establecimiento y los cuales podrían mantenerlas, afectarlas o mejorarlas.



Entonces ahora que comprendemos esto, lo siguiente es mirar un detalle más.

La adquisición del conocimiento sobre la información

Cuando Google evalúa un sitio para clasificarlo, ese proceso que implica el rastreo del sitio para encontrar sus URLs, ver como se conectan (rastrear su estructura) y procesar toda la información que este ofrece, evaluarla para generar un perfil de información (datos que se almacenan) con base a cantidad de criterios, mismos que van evolucionando en el tiempo y esto no es solo para los factores inherentes del sitio, también para aquellos que son externos al mismo como lo son los enlaces y como estos son evaluados por el motor de búsqueda en la actualidad.

Luego, es muy normal que en la medida que el sitio va haciendo cambios, su perfil en Google vaya cambiando así como el resultado de las evaluaciones, esto es lo que genera que el sitio tenga una relevancia X para una búsqueda en particular.

Pero este perfil no cambia dramáticamente de la noche a la mañana, cambia en la medida que se trabaje en el sitio, el procesamiento y evaluación de esta información naturalmente toma tiempo, esto no sucede instantáneamente como se llega a pensar, puesto que una cosa será el perfil del sitio con el 30% evaluado que haya sido rastreado en un punto determinado y otra será con el 80%, además claro que se debe tener en cuenta que en general el sitio puede ir generando cambios en su estructura, nueva información, etc., lo que bien podría cambiar su perfil en el tiempo.

Luego, si tienes la mínima noción de que Google en el tiempo ha evolucionado sus algoritmos para evaluar mejor los sitios y poder comprender y procesar mejor la información que estos ofrecen, entonces logras comprender porque ahora los SEOs dicen esto:

"Cada vez el SEO cuesta más"

y el porqué ahora cuando supuestamente siguiendo las "reglas SEO de optimización" que se esgrimen en muchos casos, simplemente no se ve que nada suceda en Google, de hecho hay cientos y cientos de casos en los foros de Google dónde lo que se dice es que los sitios pierden cada vez más posicionamiento.

Pero no hay que generalizar y confundir las cosas, un nicho spam sin importar que sea o no de mucho tráfico es muy diferente a uno de alta competencia y que además, puede variar mucho de un país a otro.


Ahora que ya tienes una idea de cómo funciona esto del lado de Google, tendrías una base para comprender el porqué pueden suceder ciertos "eventos" de cara a la clasificación de un sitio web en los resultados de búsqueda

Las variaciones en el posicionamiento

Lo más común es que se preocupen por las variaciones de posiciones en Google cuando se comienza a notar una pérdida de tráfico, lo que solamente se convierte en "algo que comprender" cuando el sitio pierde posiciones o ven que "desaparecen" de los resultados de búsqueda, porque cuando está subiendo en los rankings  todo es maravilloso, ¿verdad?.

Por su puesto en ese caso, se cree que no hay nada que comprender y se piensa que todo se está haciendo bien, ¡el mundo es color de rosa!, pero como en muchos pero muchos casos de los cientos y cientos que he visto tanto en los foros como en lo particular, el tiempo y por supuesto, Google, se encargan de mostrarte como el futuro puede tener otro color cuando lo que has hecho, no es precisamente "White Hat SEO".

Naturalmente dentro del rango de variaciones podemos llegar a ver muchos casos, como por ejemplo las supuestas "desapariciones" que han generado teorías como el "sandbox"
  • ¿Google sandbox?, no, no existe ni ha existido tal cosa.
Estas pueden suceder por muchas razones, tanto por cambios propios en el sitio como por los procesos que Google lleva a cabo de su lado.


Los cambios en el propio sitio

Muchas veces hacemos cambios en el sitio y pensamos que esto no ha generado nada porque no se vieron cambios inmediatos en los rankings de Google o bien, cercanos a la realización de estos, pero el efecto de estos pueden verse mucho más adelante por los diferentes procesos de rastreo y evaluación en el tiempo que Google hace de nuestro sitio.

En algunos casos son más evidentes, como por ejemplo al incorporar un certificado SSL para que nuestro sitio tenga su versión en https, esto genera un proceso de transición que puede tomar meses (muchos en algunos casos) y esto es algo que puede generar fluctuaciones naturales de diferentes tipos en las SERPs, sin embargo, este proceso refleja en parte como Google procede de su lado, puesto que en el mismo se puede apreciar que no es instantáneo, va haciendo una migración gradual en el medida que rastrea las URLs, sigue las redirecciones y va evaluando el sitio de nuevo.

Cambios de dirección y diferentes acciones pueden llegar a generar este tipo de oscilaciones aunque muchas veces se cree que Google es como se lee entre lo que se escribe, es decir, que solo se enfoca en "páginas optimizadas para una palabra clave" y luego te encuentras con otra realidad diferente.

Los constantes cambios que Google realiza en sus algoritmos

Esto es uno los principales aspectos que más hay que tener en cuenta sobre un medio como lo es el buscador de Google que es muy dinámico, dónde todos los días los ingenieros de Google están en función de mejorar su buscador para ir en pos de su principal objetivo, la mejor experiencia de sus usuarios en los resultados de búsqueda ofreciendo sitios de alta calidad, esto claro está, hasta dónde le sea posible.
"Cada día, Google generalmente lanzamos uno o más cambios diseñados para mejorar nuestros resultados. Algunos están enfocados en mejoras específicas. Algunos son cambios amplios. La semana pasada, lanzamos una actualización amplia del núcleo de nuestro algoritmo.  Hacemos esto rutinariamente varias veces al año..." (Fuente)





Esto es tal vez, lo que más constantemente me toca responder ante la consulta sobre el porqué un sitio pierde posiciones sin hacer mayores cambios o "haciendo lo mismo que siempre han hecho" y esto es porque el buscador ha venido mejorando la forma en cómo evalúa, aumentando su índice de calidad a la hora de evaluar la información y cambiando sus prioridades en lo que se corresponde con sus factores, evolucionando sus algoritmos.

Así es como antes los enlaces hacia el sitio (backlinks) eran el factor y desde hace mucho, son innecesarios.

El mejor ejemplo de esto ha sido Google Panda, con cantidad de actualizaciones y muchas de ellas que en su momento fueron anunciadas por Google incluso con porcentajes de afectación (se generarían cambios o movimientos en las SERPs) ha ido evolucionando y esto hace que cada vez que este ha sido mejorado, más y más sitios vean como sus clasificaciones se reducen y las de muchos otros aumentan.

Este algoritmo (Panda) que bien podría pensarse como un factor, pero que realmente puede acoger muchos de ellos dentro de su proceso, es uno de los mejores ejemplos para comprender como en la medida que Google lo evoluciona en sus proceso de evaluación para determinar la calidad de un sitio (lo que claramente incluye las malas prácticas), aumenta su rango de variables para capturar información y generar mejores evaluaciones y un mejor perfil de los sitios en el tiempo.
Agregar que además puede generar que un sitio en cualquier momento, sin importar o no que en el mundo del SEO se detecte que han habido "movimientos", comience a tener variaciones en su posicionamiento y en muchos casos que me han tocado conocer profundamente, esta caída se puede ver reflejada como algo pronunciado y gradual en el tiempo, no una caída abrupta como se podría pensar.

Esta es la razón por la cual me toca rescatar sitios de los desastres SEO que otros han hecho o se han hecho a sí mismos siguiendo eso que leen sobre las "técnicas SEO" de las que quieren disfrazar como "White" siendo intentos de manipulación y en los cuales, cuando revisas su historial, puedes ver como estos han ido decreciendo de una forma paulatina y sin importar las optimizaciones que se hagan, el sitio no mejora, de hecho, hay una enorme tendencia que lo que se trata de hacer como "solución" o "cura", termina siendo peor que la enfermedad y el sitio web comienza a hundirse aún más y mucho más rápido.

Cabe mencionar también que muchas veces se dice que esto es porque el sitio es "estático" y que no se genera contenido nuevo y que eso es un factor muy importante para Google (el llamado "Fresh Content" o contenido fresco), pero hay cantidad de sitios totalmente estáticos que se mantienen posicionados por años sin ningún problema y si que he conocido casos, sitios que llevan más de 3 años sin agregar ningún contenido y sigue allí, arriba de todos sin problemas en las búsquedas convertidas del nicho y esto por no mencionar otro que ha sido muy competitivo durante más de 5 años entre muchos otros; pero este es el argumento que supuestamente se expone cuando no logran deducir que ha sucedido y en general, se ve como el sitio comienza a alimentar un blog (porque eso fue la recomendación luego del "análisis") y luego de meses y meses, nada cambiar en las SERPs o comienza a cambiar de la forma menos esperada.

A veces me pregunto si cuando esgrimen estos supuestos "análisis" son solo respuestas automatizadas en base a "supuestos factores" listados en alguna herramienta o sitio web, como cuando dicen:

"Necesitas enlaces de redes sociales para mejorar tu proporción de enlaces..."

Esta es una de las razones por las cuales actualmente, una de las preguntas que llegan haciendo las personas o SEOs a los foros de Google es si ha habido alguna "actualización" en tal fecha o periodo de tiempo, por ejemplo, de esas que vemos son nombradas o llamadas como "Fred" o "Maccabess", pero que no son ni mucho menos actualizaciones tal y como realmente se quieren argüir, por ejemplo, a nivel de Panda o Penguin que si fueron como tal "adiciones" al algoritmo significativas y además, tenían actualizaciones periódicas.
En realidad estos "movimientos" que se llegan a denunciar en sitios o herramientas de terceros son solo una conjunción de eventos dónde muchos usuarios comienzan a reportar variaciones en sus sitios (negativas por supuesto en la gran mayoría de los casos) y comienzan las especulaciones de que X tipo de sitio sería afectado, como por ejemplo se habló hace un tiempo sobre la afectación a sitios por las "permutaciones de palabras claves" ("Maccabess") o bien, la que afectaba tanto a sitios de baja calidad (lo que hace Google Panda)  como supuestamente, lo hace con los de un perfil de enlaces malo (Lo que hace Penguin) y que fue nombrada como "Fred" y por ello muchos creen que fue la actualización "Fred" la que los afectó.

Por lo mismo Gary Illyes del equipo de Google bromeó diciendo:
"Seguro, a partir de ahora sobre cada actualización, a menos que se indique lo contrario, se llamará Fred"


Cuando llegas a comprender este tipo de aspectos de Google, es lo que te ocasiona que despiertes y salgas de la creencia del estatismo en Google a la realidad del dinamismo en sus SERPs, mismas que son muy dinámicas; esto se aprecia mucho sobre todo entre la segunda y la tercera página por no llegar a mencionar el más allá, aunque si bien la primera página de resultados se puede pensar es mucho más estable, en la parte inferior de esta puede llegar a apreciarse gran cantidad de veces movimientos en la clasificación, sobre todo entre los tres últimos de la primera página y los primeros de la segunda página de resultados de una búsqueda.


El cumplimiento de las directrices de Google

Si, así de simple como suena, sin importar el tiempo en el que el sitio haya estado activo y se haya hecho algo, sin importar el tiempo que esto lleve o se haya ejercido, si es una práctica en contra de las directrices y a causa de esta se ha obtenido un posicionamiento durante X tiempo (meses o años), cuando esto es detectado por los algoritmos puede suceder tranquilamente de la noche a la mañana que aquello que estaba generando dicho efecto simplemente sea desconocido.
  • ¿Te gusta crear enlaces?, a Google Penguin también le gusta que lo hagas
Como consecuencia natural, el sitio comienza a ser reclasificado de nuevo, lo que se reflejará como una pérdida de posiciones y un completo caos lleno de incertidumbre sobre el por qué aquello que funcionaba tan bien de un momento a otro pasó a asemejarse al Ragnarok.

Aquí es cuando te das cuenta sobre como lo que antes tenía un valor positivo desaparece para no ser nada o bien, convertirse en algo que comienza a ser negativo, un ancla que mientras no te deshagas de ella, simplemente se convertirá en un lastre muy pesado.


Cuando te venden humo como "conocimiento SEO"

Para describirlo fácilmente con un ejemplo, cuando se menciono que el https seria incluido como una señal más, muchos lo pensaron como un factor puntualmente hablando y comenzaron a venderlo como si de esto fuera a depender los grandes cambios a nivel de posicionamiento de un sitio al punto de venderlo con una falsedad a todas luces buscando aprovechar dos cosas, miedo e ignorancia.

Después de todo dirán que el marketing es vender, no importa si esto es a costa de que un posible cliente sea ignorante en el tema o bien, infundir el miedo para además, utilizar ello como puerta de entrada, aquí es cuando te preguntas por la ética.
  • La ética en la venta del SEO
Pero claro, el https como señal comenzó a venderse como factor predominante en muchos casos (para decir que penalizaría tendría que serlo) y no como algo que sumaria para hacer parte del resultado de un factor más global que Google podría tener, de allí que entre la mitología del SEO muchos salieron a escribir que Google penalizaría los sitios que no estuvieran en https, lo que claramente es falso.

Es más que normal que cuando se pasa un sitio a https, luego de que se realiza la transición completa del sitio, se pueda llegar a concluir que no fue ni lo que vendieron ni lo que dijeron que sucedería porque claramente ni siquiera se llega a ver una variación perceptiblemente notoria y muchos otros sitios que estaban incluso posicionados por encima, no tenían el https y no eran "penalizados" por ello, es decir, seguían por encima.




El verdadero trabajo de SEO en una empresa  que le interesa ser relevante en el tiempo, se desarrolla muy diferente, en algunos casos costará mucho más y en otros no tanto, pero ello dependerá en una gran medida del nicho de competencia y de tu estado dentro del mismo, por ello es necesario entender claramente hacia dónde va Google y lo que vienen haciendo desde hace años, el cómo ha evolucionado en la forma de comprender los sitios y la forma en que está avanzando y así mismo, es lo que hay que entender para poder desarrollar una estrategia de posicionamiento.



Crédito de las imágenes:


Comentarios