9 Actualizaciones de Algoritmo de Google que todo Blogger debería conocer

Todos los días, miles y millones de sitios web se crean a nivel mundial. Y casi todos los días, Google mejora sus algoritmos de búsqueda. Algunas de estas mejoras son solo ajustes menores, mientras que otras son actualizaciones importantes que agitan los SERP (página de resultados del buscador).

Si observa una caída repentina en el tráfico y las clasificaciones  en los resultados de búsqueda mientras mira las estadísticas de su sitio, es probable que haya sido afectado por una de esas bestias.

¿Cúal? Eso depende de lo que ha estado haciendo con su sitio. Esta publicación le ayudará a comprender las nueve actualizaciones principales de algoritmos de Google lanzadas en los últimos años con un resumen sobre en qué se centra cada actualización.

Pero antes de comenzar, echemos un vistazo rápido para verificar si una actualización determinada ha afectado el tráfico de nuestro sitio. El Rank Tracker de SEO PowerSuite es una gran ayuda para verificar esto; la herramienta hará coincidir automáticamente las fechas de todas las principales actualizaciones de Google con su tráfico y gráficos de clasificación.

1) Inicie Rank Tracker (si no lo tiene instalado, obtenga la versión gratuita de SEO PowerSuite aquí ) y cree un proyecto para su sitio ingresando su URL y especificando sus palabras clave objetivo.
2) Haga clic en el botón Actualizar visitas en el menú superior de Rank Tracker e ingrese sus credenciales de Google Analytics para sincronizar su cuenta con la herramienta.
3) En la parte inferior de su tablero de instrumentos de Rank Tracker, cambie a la pestaña de Tráfico orgánico.

Las líneas punteadas sobre su gráfico marcan las fechas de las principales actualizaciones de Google. Examine el gráfico para ver si las caídas (¡o picos!) En las visitas se correlacionan con las actualizaciones. Pase el mouse sobre cualquiera de las líneas para ver cuál fue la actualización.

¿Alguna de las actualizaciones impactó su tráfico orgánico de alguna manera? Siga leyendo para descubrir de qué se trató cada una de las actualizaciones, cuáles son los principales riesgos y cómo puede mantener su sitio seguro.

¿Qué es una actualización del algoritmo de Google?

Los algoritmo de Google  son programas complejos utilizados para clasificar los sitios web y determinar cuáles se mostraran en la parte más alta y mas baja de las páginas de resultados del motor de búsqueda, mejor conocidas como “SERP”. Una SERP es una página mostrada por un motor de búsqueda en respuesta a una consulta hecha por alguien. Google envía bots o rastreadores web automatizados para escanear cada sitio web en todo el mundo para comprender de qué se trata y determinar dónde mostrarlos en las páginas de resultados.

El objetivo del algoritmo de Google es simple: proporcionar a cada persona que realiza una búsqueda una lista ordenada de los sitios web más relevantes para su consulta. Según Ben Gomes, vicepresidente de ingeniería de Google, el objetivo de la compañía es “obtener la respuesta exacta de lo que esta buscando, más rápido”.

Estos algoritmos tienen en cuenta cientos de puntos de datos diferentes (llamados pistas). Por lo tanto, a medida que las preferencias de navegación de los usuarios cambian o surgen nuevos tipos de contenido, Google trabaja para modificar y optimizar su algoritmo para mostrar a los usuarios los resultados de búsqueda más relevantes y útiles. La base de cada actualización de algoritmo de Google es brindar una mejor experiencia de usuario a todos los usuarios de la web.

 

Veamos siete de las mayores actualizaciones de algoritmos de Google de todos los tiempos.

Google panda

Google lanzó Panda a principios de 2011, un algoritmo que filtraba sitios web con contenido de baja calidad en los resultados de busqueda. Este fue el comienzo de una serie de enormes controles de calidad. Google Panda retiró de manera efectiva millones de páginas de los resultados de búsqueda (SERP) de contenido de baja calidad, código malicioso, permitiendo que los sitios web de mayor calidad lleguen a la cima.

Panda asigna un “puntaje de calidad” a las páginas web; este puntaje se usa luego como un factor de clasificación. Inicialmente, Panda era solo un filtro en lugar de parte del algoritmo de clasificación de Google, pero en enero de 2016, se incorporó oficialmente al algoritmo central. Las actualizaciones de pandas se han vuelto más frecuentes, por lo que tanto las penalizaciones como las recuperaciones ahora suceden de forma mas rápida.

Un ejemplo de un sitio web de contenido de baja calidad sería un sitio web de 3 – 4 artículos  destinado principalmente a dirigir al consumidor a comprar un producto a través de un enlace de afiliado. Poco contenido + muchos enlaces de afiliado = penalización.

Google penguin

El principal objetivo del Pingüino de Google es derribar sitios web que llegan a la cima de los buscadores, usando principalmente técnicas de black hat seo como contenido duplicado, relleno de palabras clave y enlaces de retroceso de pésima calidad.

En general, los enlaces han sido un aspecto importante de SEO desde el comienzo de la industria. Como dice Moz inteligentemente , Un enlace es como un voto para su sitio. Si un sitio respetado se vincula a su sitio, esta es una recomendación para su sitio. Si un sitio pequeño y desconocido está vinculado a usted, entonces este voto no contará tanto como un voto de un sitio autorizado.

Antes de Penguin, los webmasters poco éticos a menudo usaban herramientas para enviar enlaces  no deseados a páginas en línea de baja calidad. En algunos casos, colocarían esos enlaces junto a una descripcion en foros usando un software para que aparezcan como contenido único.

Sigue siendo cierto que hoy en día que los backlinks sigue siendo una tecnica importante de SEO . Sin embargo, ahora que Penguin está en su lugar, Google es mucho más inteligente en la búsqueda de spam web y evita que los sitios que lo utilizan de manera incorrecta se clasifiquen en las páginas de resultados del motor de búsqueda (SERP).

Pirate

Google tiene muchos tipos diferentes de algoritmos para ayudar a orientar los diferentes aspectos de la web. Esto ayuda a garantizar que los resultados que ofrece sean los mejores resultados posibles. ‘Pirate’ es uno de estos algoritmos y es muy similar tanto al Panda (que es un algoritmo que se dirige al contenido) como a Penguin (que es un algoritmo que ataca enlaces); sin embargo, Pirate apunta y degrada sitios que Google reconoce como infractores de la Ley de Derechos de Autor Digital Milenio(DMCA).

El algoritmo pirata degrada sitios web en sus SERP que reciben avisos de eliminación de derechos de autor específicamente torrent y sitios web que comparten material ilegalmente sin el consentimiento válido del propietario.

Hummingbird

Google Hummingbird es un importante cambio de algoritmo que Google anunciado oficialmente en septiembre de 2013. El algoritmo Hummingbird alteró sustancialmente la forma en que funcionan los resultados de búsqueda de Google en un esfuerzo por mejorar la forma en que los usuarios interactúan con esos resultados y proporcionar respuestas más directas a consultas específicas. Esto es parte del proceso de Google para pasar de simplemente buscar palabras de consulta individuales a entender el significado de una consulta como un todo, y por lo tanto proporcionar resultados más útiles y relevantes.

Si bien las palabras clave dentro de la consulta siguen siendo importantes, Hummingbird agrega más fortaleza al significado detrás de la consulta como un todo. El uso de sinónimos también se ha optimizado con Hummingbird; en lugar de mostrar los resultados con la concordancia de palabra clave exacta, Google muestra más resultados relacionados con el tema en los SERP que no tienen necesariamente las palabras clave de la consulta en su contenido.

Pigeon

La actualización inicial de Google Pigeon debutó el 24 de julio de 2014 añadiendo mejoras en los parámetros de clasificación de distancia y ubicación, así como vínculos más profundos con las capacidades de búsqueda web de Google. Actualmente, Google Pigeon solo afecta los resultados de búsqueda local en inglés de EE. UU., Y tiene un impacto en las listas locales orgánicas dentro de búsqueda de mapas y búsqueda web de Google.

Mobilegeddon

El 21 de abril de 2015 fue la fecha oficial de lo que muchos profesionales de Internet llamamos “Mobilegeddon”. Esto puede ser una sorpresa para muchas empresas, pero Google ha estaba insinuando esta nueva actualización desde hace un tiempo. A partir de noviembre de 2014, Google comenzó a agregar etiquetas optimizadas para dispositivos móviles en el ranking de búsqueda, permitiendo a los usuarios móviles saber qué sitios son receptivos y cuáles no.

Por lo tanto, a un usuario que realiza una búsqueda en Google desde su teléfono o tableta se le mostrarán resultados de búsqueda para sitios web diseñados para adaptarse a su dispositivo más pequeño.

RankBrain

RankBrain es un programa de Inteligencia Artificial creado para ayudar a Google a entender las consultas de búsqueda. Ayuda a Google a procesar los resultados de búsqueda y a proporcionar resultados de búsqueda más relevantes para los usuarios. Incorpora una amplia gama de idiomas escritos en entidades matemáticas, llamado vectores, que la máquina puede comprender. Si RankBrain se encuentra con una oración que no sabe, puede adivinar el significado con oraciones o palabras similares y filtrar el resultado en consecuencia, haciéndolo más preciso para los nuevos intentos.

En lugar de estar preprogramado para responder a situaciones determinadas de forma predeterminada (como hasta ahora ha sido la búsqueda en Google), puede actualizarse a sí mismo a lo largo del tiempo. Piense en ello como un robot que puede actualizarse constantemente en lugar de confiar en un ser humano externo para el mantenimiento ocasional.

Mientras que los ingenieros de búsqueda de Google adivinaron correctamente el 70 por ciento de las veces, Rank Brain tuvo una tasa de éxito del 80 por ciento.
En general, Rank Brain es capaz de aprender y reconocer nuevos patrones y luego revisar SERPS (página de resultados del motor de búsqueda) en función de su nuevo conocimiento.

Possum

El 1 de septiembre de 2016, Google lanzó una actualización de algoritmo que ha afectado la búsqueda local y la aparición de listas de empresas de Google en los resultados de búsqueda.

“En términos simples, desarrollaron un sistema que asigna puntajes de spam a listas de Google Businesss para marcar o filtrar empresas fraudulentas o inexistentes que intentan clasificarse en los resultados de la lista de empresas locales.

Fred

Google es siempre reservado acerca de los cambios que realiza a su algoritmo, sin embargo, el cambio del 7 al 8 de marzo  de 2017 fue lo suficientemente grande para que muchos propietarios de sitios web y empresas de marketing digital noten cambios drasticos en el tráfico y las clasificaciones de busqueda.

La única pista que se le dio a los propietarios de sitios web fue que Fred se enfocaba en sitios web que no cumplían con las pautas del webmaster. Muchas fuentes indican que los sitios con contenido de baja calidad y backlinks antinaturales, destinados exclusivamente a generar ingresos, han sido los más perjudicados por esta actualización.

Conclusión

Estas son las principales actualizaciones de Google hasta la fecha, junto con algunos consejos rápidos de auditoría y prevención para ayudar a su sitio a mantenerse en la parte superior en la búsqueda de Google.

Como siempre, espero sus comentarios y preguntas a continuación. ¿Alguna de estas actualizaciones ha tenido un impacto en sus sitios web? Si es así, ¿cuál fue la táctica que te ayudó a recuperarte? Por favor comparte tu experiencia en los comentarios!

Mira más contenido relacionado

SEO y diseño de sitios web: Todo lo que necesitas saber.

por Jhon Torres, noviembre 27, 2018

Cada negocio necesita un gran sitio web. ¿Pero de qué sirve tener un sitio con un...

Por qué es importante que tu negocio tenga un chatbot

por Jhon Torres, septiembre 28, 2018

¿Eres propietario de un negocio? ¿Su negocio realmente necesita chatbots? En los...

Cómo pueden posicionarse las pequeñas empresas en Google

por Jhon Torres, septiembre 26, 2018

Cuando busca en Google términos relacionados con su pequeña empresa, ¿ve a su sitio...

Reinventando las Mypes en la era digital

por Jhon Torres, septiembre 24, 2018

Las Mypes se enfrentan a muchos desafíos en el ultracompetitivo mundo empresarial de la...

7 Razones por la que su blog no se posiciona en google

por Jhon Torres, abril 16, 2018

Después de terminar con el arduo trabajo que significa crear un sitio web, el...

Nuestras herramientas favoritas de SEO gratuitas para el 2018

por Jhon Torres, febrero 15, 2018

La optimización de motores de búsqueda (SEO) no es una tarea fácil, afortunadamente,...