Cómo afectan los algoritmos al SEO y a las búsquedas

Google académico qué es

Los algoritmos y sus actualizaciones se implementan para mejorar la experiencia del usuario a la hora de realizar búsquedas en Google. De esta forma, con cada nueva actualización y con cada nuevo algoritmo, la compañía busca solucionar problemas y errores, ofreciendo al usuario final solo los mejores resultados, filtrando cualquier contenido de baja calidad o de spam.

Con el tiempo, Google ha ido cambiando la forma en la que analiza el contenido y las página web, para mejorar la experiencia de usuario, mostrando solo aquellos contenidos que considera de calidad.

Para ello, Google ha ido implementando algunos algoritmos que han cambiado por completo no solo la forma en la que se crea el contenido y se optimiza el SEO, sino la manera en la que los usuarios realizan las búsquedas. Estas son las principales acciones que se debe evitar a la hora de crear contenido para no ser penalizado por Google:

-Contenido duplicado: Desde Google Panda, que buscaba eliminar de la página de resultados de búsqueda los sitios web de baja calidad, Google penaliza el contenido duplicado. Cuando se publica mucho contenido en un sitio web es posible que algunos artículos se repitan, es muy importante intentar publicar contenido único, útil y detallado (in-depth content). Google revisa todo el sitio web y, cuando descubre páginas que pueden ser duplicadas las analiza en busca del original, si descubre que la página es una copia, la descarta. Si esto sucede muchas veces en un mismo dominio, Google puede aplicar una penalización manual, lo que supondría un problema.

-Enlaces de baja calidad: Panda también empezó a analizar los enlaces entrantes y salientes de las páginas web, para determinar si son naturales o artificiales, así como su calidad. Más tarde, Penguin se centró casi exclusivamente en este factor, penalizando a todos aquellos sitios que utilizaban esquemas de enlaces poco naturales. Cualquier enlace procedente de granjas de enlaces, enlaces comprado o que apunten a pirámides de blogs u otras formas de aumentar la autoridad de una página de forma artificial, serán penalizados. El perfil de enlaces es uno de los factores con mayor peso en el posicionamiento SEO de una página.

-Tasa de rebote alta: Google entiende una tasa de rebote alta como una señal de que los usuarios visitan el sitio web, pero no encuentran o consideran que no han encontrado la información que necesitan. Esto es una muy mala señal para el motor de búsqueda. Por otra parte, no se puede fijar una «tasa de rebote correcta», ya que esta depende de la temática de la página web, así como del tipo de sitio web; ya que no tienen la misma tasa de rebote los blogs o sitios de noticias, que las tiendas en línea. Las tasas de rebote altas pueden ser por un problema de diseño, por el contenido o simplemente por un mal enfoque de los temas y las categorías escogidas.

-Baja repetición de las visitas: Se trata de un factor similar al anterior. Si los usuarios no regresan a tu sitio web una vez lo han visitado, Google entiende que hay un problema y que tu contenido no es relevante y carece de interés. Un sitio web que tenga mucho tráfico mensual, pero con pocos visitantes habituales, podría posicionarse peor que otro con un tráfico más bajo, pero con lectores fieles.

-Velocidad de carga: Google Panda empezó a fijarse en la velocidad de carga de las páginas como factor de posicionamiento SEO. Sin embargo, han sido los algoritmos posteriores los que han comenzado a prestar más atención a este factor. Los usuarios no esperan más de 2 segundos a que una página web se cargue por completo. Las páginas que tienen tiempos de carga lentos se posicionan en puestos más bajos, sin importar que cumplan con el resto de factores de posicionamiento o que tengan contenido con una calidad excelente.

-Palabras Clave: Con Penguin, Google empezó a vigilar el uso de las palabras clave. Hasta ese momento, el llamado «keyword stuffing» era una práctica habitual. Se trata de añadir la palabra clave de forma artificial al contenido, llegando a esconderla en el propio fondo de la página web. Desde la implementación del algoritmo, Google penaliza aquellas páginas web que abusan de las palabras clave y premia aquellas que las utilizan de forma natural. Por otra parte, con la llegada de Hummingbird (un algoritmo que no penaliza, sino que mejora los sitios que cumplen con las normas de calidad), Google comenzó a posicionar mejor aquellas páginas web que utilizaban palabras clave long tail.

Jaume Vicent

Redactor y especialista en SEO y marketing de contenidos. Friki de las redes sociales y de las nuevas tecnologías.

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

    INFORMACIÓN BÁSICA SOBRE PROTECCIÓN DE DATOS

    Responsable: TreceBits S.L. (TreceBits)
    Finalidad: Que puedan comentar las noticias publicadas
    Legitimación: Consentimiento del interesado. Satisfacción del interés legítimo del Responsable.
    Destinatarios: No se cederán a terceros salvo obligación legal.
    Derechos: Puedes ejercitar en cualquier momento tus derechos de acceso, rectificación, supresión, limitación, oposición y demás derechos legalmente establecidos a través del siguiente e-mail: [email protected].
    Información adicional: Puedes consultar la información adicional y detallada sobre protección de datos aquí.