A lo largo del año 2022 hubo varios update de Google que tuvieron un notable impacto en varias webs.
Durante el mes de mayo de 2021 llegó la actualización Google Page Experience que introdujo las Core Web Vitals, indicadores que sirven para medir la experiencia del usuario en base al tiempo de carga de la web, la estabilidad visual, la compatibilidad con dispositivos móviles o la accesibilidad.
En junio hubo otro update core que vino seguido en julio por una actualización que penalizaba las webs con enlaces spam y todo lo relacionado con el intercambio y compra-venta de links.
Por último, en agosto hubo otra actualización de contenido útil para optimizar los resultados de búsqueda.
Puedes hacer un seguimiento de los cambios y actualizaciones de los algoritmos de Google para estar al corriente y saber en qué momento necesitas realizar alguna acción en tu página web para seguir apareciendo en las páginas de resultados.
Nosotros deseamos ponértelo fácil y por ello queremos ofrecerte un listado de los algoritmos de Google más relevantes.

Los Core Updates no son exactamente algoritmos sino actualizaciones generales que suelen tener efectos muy visibles.
A lo largo del año 2020 se han lanzado dos de estos Core Updates en los meses de enero y mayo.
Han afectado a webs de temáticas relacionadas con animales, motor, viajes y salud entre otras que ha provocado cambios tanto en e-commerce y medios de prensa como en nichos específicos y blogs.
El objetivo de la actualización de mayo se fijó en ofrecer información relevante y de confianza a los usuarios, en especial tras la aparición del Covid-19 que disparó todo tipo de bulos y desinformación en Google.
En diciembre de ese mismo año muchas webs experimentaron una fuerte caída de tráfico que se recuperó poco después, lo que suele ser señal de otra actualización.

El algoritmo Google Neural Matching, introducido en 2019, tuvo un impacto notable en el SEO local, transformando cómo Google entiende y clasifica las consultas de búsqueda relacionadas con servicios o negocios locales.
Antes de Neural Matching, la optimización para búsquedas locales dependía en gran medida de la coincidencia directa de palabras clave y la presencia de señales locales específicas, como menciones de la ciudad o la región, reseñas locales y entradas en directorios de negocios.
Con la implementación de Neural Matching, Google avanzó hacia una comprensión más profunda del significado y la intención detrás de las consultas de los usuarios, incluso cuando no incluye el nombre concreto de la ciudad o región.
Esto significa que Google puede ahora relacionar una consulta con un servicio local relevante basándose en el entendimiento semántico de la consulta, incluso si la consulta y el contenido del sitio web no coinciden exactamente en términos de palabras clave.

Las webs de salud fueron las principales afectadas con la llegada de este algoritmo ya que provocó la caída en las SERPs de las páginas web de dietas, enfermedades, salud, etcétera… que no estuvieran respaldas por profesionales perjudicando así a los nichos relacionados con estos temas.
Además, también afectó a las páginas web que se dedicaban a los créditos y a diferentes formas de ganar dinero.
Sin duda fue un golpe que afectó a muchos usuarios que monetizaban nichos de estas temáticas y que no lograron adaptarse a las nuevas exigencias de Google al respecto.
Hoy día algunos usuarios consiguen levantar webs relacionadas pero reforzando mucho la autoridad.
Fred llegó sin avisar para encargarse de las webs dedicadas a ganar dinero a través de Internet (siempre que no fuera con Google Adsense) y que dejaran la experiencia de usuario y la calidad de los contenidos en un segundo plano.
De nuevo, si tu página tiene publicidad no tienes que temer a Fred siempre y cuando ofrezcas contenido de valor a tus lectores.
Como resultado del uso masivo de los teléfonos móviles a la hora de consultar páginas en Internet, Google lanzó este algoritmo que favorece el posicionamiento de aquellos sitios con un diseño web que se ve bien en la pantalla de un móvil: botones de tamaño correcto, enlaces que no se solapan, imágenes que no rompen el formato…
Debido a ello, aunque tu página se vea perfecta en el ordenador no va a indexar si no tiene una buena visualización en el móvil ya que ahora es más importante que el equipo de sobremesa.

Una vez más Google saca a la luz otro algoritmo enfocado al SEO local.
Se trata de una actualización en base al algoritmo Venice que afina aún más la localización de un negocio a la hora de buscar productos o servicios. Antes, el buscador localizaba tu IP para mostrarte resultados situados en tu ciudad.
Gracias a Possum, ahora Google tiene en cuenta negocios de otras localidades o municipios que geográficamente puedan estar más cerca que los locales de tu propia ciudad.
En sitios grandes como Madrid o Barcelona supuso un cambio muy relevante tanto para los usuarios como para los negocios locales no solo en SEO sino en marketing digital.
Este algoritmo es como una actualización de Penguin y Panda ya que interpreta las respuestas que aparecen en las SERPs ante determinadas búsquedas mediante el uso de la Inteligencia Artificial en lo que respecta a los vectores y las matemáticas.
Cuando haces una búsqueda y no te satisfacen los resultados y decides modificar esa búsqueda añadiendo o quitando palabras, Google registra ese movimiento y se encarga de actualizar sus resultados en base a la búsqueda que sí te ha dejado satisfecho.
De esta forma, mejora aún más las SERPs conforme a las experiencias de los propios usuarios en ellas.
La llegada de Mobilegeddon supuso el ascenso de webs “mobile-friendly”, es decir, que se adaptan a las pantallas de los móviles, es decir, a aquellas que tenían un theme responsive que mejoraba la experiencia del usuario desde cualquier dispositivo.
Aunque en la actualidad prácticamente todos los themes son responsive y se adaptan a cualquier pantalla, en el momento en el que apareció este algoritmo los diseños de páginas web se planificaban para ser vistos en la pantalla de un ordenador.
Esto hacía que al abrir una web en el móvil, ésta pudiera aparecer con los elementos descolocados, demasiado grandes o demasiado pequeños, etc.
Hoy día en el que una gran mayoría de los usuarios consulta páginas webs desde el teléfono móvil ya resulta impensable utilizar un desarrollo web con un theme no responsive.

Este algoritmo en realidad es una actualización del que había salido dos años atrás, Pirate 1.0, y que afectaba a las páginas de descargas ilegales: películas, música, libros, juegos…
No solo penalizaba los sitios webs piratas sino que beneficiaba a aquellas que ofrecen descargas de forma legal.
Aunque no parece haber habido demasiados movimientos al respecto sí se ha observado que es muy difícil poner anuncios de Google Adsense en las páginas de descargas por lo que siguen siendo penalizadas de alguna manera.
Por ese motivo, ese tipo de webs pensadas para monetizar hace tiempo que dejaron de ser rentables en la mayor parte de los casos.
En el año 2014 Google anunció el cambio de http a https. No fue un cambio demasiado polémico ni comentado en su momento pero desde el principio quedó claro que ese factor iba a ser importante a la hora de posicionar una web.
La importancia del certificado SSL es que se encarga de codificar los datos del usuario en la página web, lo que le ofrece una mayor seguridad acerca del uso de los mismos y posibles robos.
Pronto se comprobó que las páginas que no lo implantaron perdieron visibilidad frente a aquellas que sí lo hicieron. Además, el aviso de falta de seguridad que aparece en el navegador cuando el usuario accede a una web que no cuenta con el protocolo https puede provocar que abandone la página.

La misión de Google Pigeon fue depurar las búsquedas locales y por desgracia para quienes se enfocan al SEO local es uno de los algoritmos de los que menos se sabe.
Esta nueva fórmula matemática solicitada por el buscador YELP concede más importancia a los contenidos y a los enlaces entrantes locales por encima de los globales siempre que estemos hablando de un negocio local, por supuesto.
Si te dedicas al SEO local, permanece atento a los movimientos de Google Pigeon.
Este algoritmo de búsqueda se dedicó a buscar la naturalidad tanto en las búsquedas como en los contenidos y su implantación afectó a un 90% de estas búsquedas.
Es decir, Hummingbird apareció para mejorar la respuesta a la intención de búsqueda del usuario añadiendo sencillez y naturalidad a los resultados.

Este algoritmo se dedica a detectar aquellos sitios web que han crecido a base de enlaces de mala calidad.
Como quizá sabrás, hace bastantes años era muy fácil ganar posiciones con enlaces poco cuidados y que ni siquiera tenían que tener afinidad temática.
Abundaban las granjas de enlaces y todo tipo de prácticas Black Hat para poder escalar rápidamente en las SERPs.
Es en este contexto en el que aparece Penguin penalizando este tipo de acciones y premiando a las páginas web que consiguen enlaces entrantes de forma natural.
La calidad tomó relevancia por encima de la cantidad a partir de ese momento y por ello siempre recomendamos que, a la hora de comprar enlaces, procures que tengan relación con la temática de tu web y que no sean demasiados.
Venice llegó con la intención de mejorar las búsquedas locales y tras su aparición se vieron afectadas muchas páginas web aunque mejoró notablemente la experiencia del usuario.
El mayor cambio que introdujo fue que, cuando el usuario buscaba productos o servicios en su ciudad, ya no le hacía falta agregar en la búsqueda el nombre de la misma sino que Google, automáticamente, le ofrecía los mejores resultados más cercanos.
Aquellas webs más globales acabaron perjudicadas pero, por el contrario, para el usuario este tipo de búsquedas se hicieron más cómodas y los negocios locales con página web se vieron beneficiados.
Fue en este momento cuando se empezó a valorar la presencia de un mapa en el sitio web con la localización avalada por la ficha de Google My Business.

Este algoritmo lleva más de diez años entre nosotros y es el que se encarga de aplicar filtros para distinguir el contenido de buena calidad de las páginas web que hay en Internet, siempre en base a la intención de búsqueda del usuario.
El Panda, como se lo conoce habitualmente, penaliza el contenido de poco valor o thin content, el contenido duplicado y, en definitiva, todo aquello que no aporte nada al usuario. Por eso y como te decíamos antes, si tu contenido es original y ofrece valor y respuestas a tus lectores, no tendrás que preocuparte por este algoritmo.
***
Como ves, los algoritmos de Google siempre se enfocan hacia la satisfacción del usuario así que todo lo que tienes que hacer para no verte perjudicado es ofrecerle valor y buenas experiencias a las personas que lleguen a tu página web.
La naturalidad y las ganas de aportar, al final, resultan ser el mejor secreto para que no te afecten los cambios en el algoritmo.
