Crédito de la imagen: Lyna™

Dos tendencias han impactado la forma en que Google realiza la indexación. Si bien la web abierta se ha reducido, Google necesita rastrear grandes plataformas de contenido como YouTube, Reddit y TikTok, que a menudo se basan en marcos JS “complejos”, para encontrar contenido nuevo. Al mismo tiempo, la IA está cambiando la dinámica subyacente de la web al hacer redundante el contenido mediocre y deficiente.

En mi trabajo con algunos de los sitios más importantes de la web, últimamente noté una relación inversa entre las páginas indexadas y el tráfico orgánico. Más páginas no son automáticamente malas, pero a menudo no cumplen con las expectativas de calidad de Google. O, mejor dicho, la definición de calidad ha cambiado. Hay mucho en juego para los SEO: si se expande de manera demasiado agresiva, todo su dominio podría verse afectado. Necesitamos cambiar nuestra forma de pensar sobre la calidad y desarrollar sistemas de monitoreo que nos ayuden a comprender la calidad del dominio a nivel de página.

Harto

Google ha cambiado la forma en que trata los dominios a partir de octubre de 2023: ningún ejemplo mostró la relación inversa antes de octubre. Además, Google tuvo problemas de indexación cuando lanzó la actualización del algoritmo Core de octubre de 2023, tal como sucedió ahora durante la actualización de agosto de 2024.

Antes del cambio, Google indexaba todo y priorizaba el contenido de mayor calidad en un dominio. Piense en ello como en una búsqueda de oro, donde se llena un recipiente con grava, tierra y agua y luego se agita y revuelve hasta que solo queda material valioso.

Ahora, un dominio y su contenido deben demostrar su valía antes de que Google intente siquiera buscar oro. Si el dominio tiene demasiado contenido de baja calidad, Google podría indexar sólo algunas páginas o ninguna en casos extremos.

Un ejemplo es doordash.com, que agregó muchas páginas durante los últimos 12 meses y perdió tráfico orgánico en el proceso. Al menos algunas, tal vez todas, las nuevas páginas no cumplieron con las expectativas de calidad de Google.

Crédito de la imagen: Kevin Indig

¿Pero por qué? ¿Qué cambió? Razoné que:

  • Google quiere ahorrar recursos y costos a medida que la empresa avanza hacia un estado mental de eficiencia operativa.
  • La indexación parcial es más eficaz contra el contenido de baja calidad y el spam. En lugar de indexar y luego intentar clasificar las páginas nuevas de un dominio, Google observa la calidad general de un dominio y maneja las páginas nuevas con el correspondiente escepticismo.
  • Si un dominio produce repetidamente contenido de baja calidad, no tiene oportunidad de contaminar más el índice de Google.
  • El listón de calidad de Google ha aumentado porque hay mucho más contenido en la web, pero también para optimizar su índice para RAG (grounding AI Overviews) y entrenar modelos.

Este énfasis en la calidad del dominio como señal significa que debe cambiar la forma de monitorear su sitio web para tener en cuenta la calidad. Mi principio rector: “Si no puedes agregar nada nuevo o mejor a la web, probablemente no sea lo suficientemente buena”.

Comida de calidad

La calidad del dominio es mi término para describir la proporción de páginas indexadas que cumplen con el estándar de calidad de Google y las que no. Tenga en cuenta que sólo las páginas indexadas cuentan para la calidad. El porcentaje máximo de páginas “malas” antes de que Google reduzca el tráfico a un dominio no está claro, pero ciertamente podemos ver cuándo se alcanza:

Crédito de la imagen: Kevin Indig
Crédito de la imagen: Kevin Indig
Crédito de la imagen: Kevin Indig

Defino la calidad del dominio como una señal compuesta por 3 áreas: experiencia de usuario, calidad del contenido y condición técnica:

  • Experiencia de usuario: ¿los usuarios encuentran lo que buscan?
  • Calidad del contenido: ganancia de información, diseño de contenido, exhaustividad.
  • Optimizado técnicamente: contenido duplicado, renderizado, contenido en la página para contexto”,rastreado, no indexado/descubierto”404 suaves
Un ejemplo de contenido duplicado (Crédito de la imagen: Kevin Indig)

Un aumento repentino en las páginas indexadas generalmente indica un problema técnico como contenido duplicado de parámetros, internacionalización o paginaciones rotas. En el siguiente ejemplo, Google redujo inmediatamente el tráfico orgánico a este dominio cuando se rompió una lógica de paginación, lo que provocó una gran cantidad de contenido duplicado. Nunca he visto a Google reaccionar rápidamente ante errores técnicos, pero ese es el nuevo estado de SEO en el que nos encontramos.

Crédito de la imagen: Kevin Indig

En otros casos, un aumento en las páginas indexadas indica una jugada SEO programática en la que el dominio lanzó muchas páginas con la misma plantilla. Cuando la calidad del contenido en las páginas programáticas no es lo suficientemente buena, Google cierra rápidamente el grifo del tráfico.

Crédito de la imagen: Kevin Indig
Crédito de la imagen: Kevin Indig

En respuesta, Google a menudo reduce la cantidad de palabras clave que se clasifican en las 3 primeras posiciones. El número de palabras clave que se clasifican en otras posiciones suele ser relativamente estable.

Crédito de la imagen: Kevin Indig
Crédito de la imagen: Kevin Indig
Crédito de la imagen: Kevin Indig

El tamaño aumenta el problema: la calidad del dominio puede ser un problema mayor para los sitios más grandes, aunque los más pequeños también pueden verse afectados.

Agregar nuevas páginas a tu dominio no es malo en sí mismo. Sólo quieres tener cuidado con eso. Por ejemplo, publicar contenido nuevo sobre liderazgo intelectual o marketing de productos que no esté dirigido directamente a una palabra clave puede seguir siendo muy valioso para los visitantes del sitio. Por eso es fundamental medir el compromiso y la satisfacción del usuario además de las métricas de SEO.

plan de dieta

La forma más importante de mantener alejadas las páginas “gordas” (de baja calidad) y reducir el riesgo de verse afectado por una actualización del Core es implementar el sistema de monitoreo adecuado. Es difícil mejorar lo que no se mide.

En el corazón de un sistema de monitoreo de calidad de dominio es un panel que rastrea las métricas de cada página y las compara con el promedio. Si pudiera elegir solo tres métricas, mediría la tasa de rebote inversa, las conversiones (suaves y duras) y los clics + clasificaciones por tipo de página por página en comparación con el promedio. Lo ideal es que su sistema le avise cuando se produce un aumento en la velocidad de rastreo, especialmente para páginas nuevas que no se rastrearon antes.

Como escribo en Cómo las mejores empresas miden la calidad del contenido:

1/ Para la calidad de la producción, mida métricas como la puntuación del editor SEO, la puntuación Flesch/legibilidad o el número de errores ortográficos/gramaticales.

2/ Para la calidad del rendimiento, mida métricas como # 3 clasificaciones principales, relación entre el tiempo en la página y el tiempo de lectura estimado, tasa de rebote inversa, profundidad de desplazamiento o valor de canalización.

3/ Para la calidad de la preservación, mida las métricas de desempeño a lo largo del tiempo y año tras año.

Ignore páginas como Términos de servicio o Acerca de nosotros cuando monitoree su sitio porque su función no está relacionada con el SEO.

Fase de ganancia

El monitoreo es el primer paso para comprender la calidad del dominio de su sitio. No siempre es necesario agregar más páginas para crecer. A menudo, puedes mejorar tu inventario de páginas existente, pero necesitas un sistema de monitoreo para resolver esto en primer lugar.

Adidas es un buen ejemplo de un dominio que pudo aumentar el tráfico orgánico simplemente optimizando sus páginas existentes.

Crédito de la imagen: Kevin Indig

Otro ejemplo es Redfin, que mantuvo una cantidad constante de páginas y al mismo tiempo aumentó significativamente el tráfico orgánico.

Crédito de la imagen: Kevin Indig

Citando al Sr. Director de crecimiento de productos en mi análisis profundo de Redfin sobre cómo alcanzar el estándar de calidad adecuado:

Llevar nuestra experiencia local al sitio web: ser la autoridad en el mercado inmobiliario, responder cómo es vivir en un área y ofrecer un conjunto completo de inventario de venta y alquiler en todo Estados Unidos.

Mantener la excelencia técnica: nuestro sitio es grande (más de 100 millones de páginas), por lo que no podemos dormir en aspectos como el rendimiento, el estado del rastreo y la calidad de los datos. A veces, los esfuerzos menos “atractivos” pueden ser los de mayor impacto”.

Empresas como Lending Tree o Progressive obtuvieron ganancias significativas al reducir las páginas que no cumplían con sus estándares de calidad (consulte las capturas de pantalla de las inmersiones profundas a continuación).

Progressive movió las páginas del agente a un dominio separado para aumentar la calidad de su dominio principal. (Crédito de la imagen: Kevin Indig)
LendingTree eliminó muchas páginas de baja calidad para impulsar el crecimiento del tráfico orgánico. (Crédito de la imagen: Kevin Indig)

Conclusión

Google premia los sitios que se mantienen en forma. En 2020, escribí sobre cómo el índice de Google podría ser más pequeño de lo que pensamos. El tamaño del índice solía ser un objetivo desde el principio. Pero hoy en día, se trata menos de indexar tantas páginas como sea posible y más de tener las páginas correctas. La definición de “bueno” ha evolucionado. Google es más exigente en cuanto a quién deja entrar al club.

En el mismo artículo, presenté la hipótesis de que Google cambiaría a una API de indexación y dejaría que los propietarios de sitios asumieran la responsabilidad de la indexación. Eso no se ha materializado, pero se podría decir que Google está utilizando más API para la indexación:

  • El acuerdo de 60 dólares al año entre Google y Reddit proporciona una décima parte de los resultados de búsqueda de Google (suponiendo que Reddit esté presente entre los 10 primeros para casi todas las palabras clave).
  • En el comercio electrónico, donde los listados más orgánicos aparecen más arriba en los resultados de búsqueda, Google depende más del feed de productos en Merchant Center para indexar nuevos productos y mejorar su gráfico de compras.
  • Las funciones SERP como Top Stories, que son fundamentales en la industria de las noticias, son pequeños servicios con su propia lógica de indexación.

Mirando hacia el futuro, la gran pregunta sobre la indexación es cómo se transformará cuando más usuarios busquen a través de descripciones generales de IA y chatbots de IA. Suponiendo que los LLM aún necesitarán poder representar páginas, el trabajo técnico de SEO sigue siendo esencial; sin embargo, la motivación para indexar cambia de mostrar resultados web a modelos de capacitación. Como resultado, el valor de las páginas que no ofrecen nada nuevo será incluso más cercano a cero que hoy.

Con información de Search Engine Journal.

Leer la nota Completa > Calidad sobre cantidad para la indexación de Google

LEAVE A REPLY

Please enter your comment!
Please enter your name here