Una nueva investigación de más de 16 millones de páginas web muestra que las tasas de indexación de Google han mejorado, pero que muchas páginas en el conjunto de datos no fueron indexadas y más del 20% de las páginas finalmente se desinfectaron. Los resultados pueden ser representativos de las tendencias y desafíos específicos de los sitios preocupados por el SEO y la indexación.
Investigación de IndexCheckr Tool
IndexCheckr es una herramienta de seguimiento de indexación de Google que permite alertarse a los suscriptores sobre cuándo se indexa el contenido, monitorea las páginas indexadas actualmente y monitorear el estado de indexación de páginas externas que alojan vínculos de retroceso a las páginas web de suscriptores.
Es posible que la investigación no se correlacione estadísticamente con las tendencias de indexación de Google en Internet, pero puede tener una correlación lo suficientemente cercana a los sitios cuyos propietarios están preocupados por la indexación y el monitoreo de vínculos de retroceso, lo suficiente como para suscribirse a una herramienta para monitorear esas tendencias.
Sobre la indexación
En la indexación web, los motores de búsqueda rastrean Internet, filtran contenido (como eliminar duplicados o páginas de baja calidad) y almacenan las páginas restantes en una base de datos estructurada llamada índice de búsqueda. Este índice de búsqueda se almacena en un sistema de archivos distribuido. Google usó originalmente el sistema de archivos de Google (GFS) pero luego se actualizó a Colossus, que está optimizado para manejar cantidades masivas de datos de búsqueda en miles de servidores.
Tasas de éxito de indexación
La investigación muestra que la mayoría de las páginas en su conjunto de datos no estaban indexadas, pero que las tasas de indexación han mejorado de 2022 a 2025. La mayoría de las páginas que Google indexó se indexan dentro de los seis meses.
- La mayoría de las páginas en el conjunto de datos no estaban indexadas (61.94%).
- Las tasas de indexación han mejorado de 2022 a 2025.
- Google indexa la mayoría de las páginas que se indexan en seis meses (93.2%).
Tendencias de desintegración
Las tendencias de indexación son muy interesantes, especialmente sobre qué tan rápido es Google en las páginas de desindexación. De todas las páginas indexadas en todo el conjunto de datos, el 13.7% de ellas se definen dentro de los tres meses posteriores a la indexación. La tasa general de desindexación es del 21.29%. Una forma más soleada de interpretar esos datos es que el 78.71% permaneció firmemente indexado por Google.
El desintegrador generalmente está relacionado con los factores de calidad de Google, pero también podría reflejar a los editores de sitios web y los SEO que solicitan a propósito la página web que se desindexen a través de directivas noindex como el elemento Meta Robots.
Aquí están los porcentajes acumulativos basados en el tiempo de desinyción:
- El 1.97% de las páginas indexadas se desindexan dentro de los 7 días.
- El 7,97% se desindexan dentro de los 30 días.
- 13.70% se desindexó en 90 días
- 21.29% se desindexó después de 90 días.
El trabajo de investigación que me proporcionaron ofrece esta observación:
“Esta línea de tiempo resalta la importancia del monitoreo temprano y la optimización para abordar los posibles problemas que podrían conducir a la desintegración. Más allá de los tres meses, el riesgo de desinyamiento disminuye pero persiste, lo que hace que las auditorías periódicas sean esenciales para la visibilidad de contenido a largo plazo “.
Impacto de los servicios de indexación
La siguiente parte de la investigación destaca la efectividad de las herramientas diseñadas para aumentar la indexación de la página web. Descubrieron que las URL presentadas a las herramientas de indexación tenían una tasa de éxito baja del 29.37%. Eso significa que el 70.63% de las páginas web presentadas se mantuvieron sin indicar, posiblemente destacando las limitaciones en las estrategias de envío manual.
Alto porcentaje de páginas no indexadas
Menos del 1% de los sitios web rastreados no tenían un índice. La mayoría de las URL no indexadas eran de sitios web que fueron indexados por Google. El 37.08% de todas las páginas rastreadas estaban completamente indexadas.
Es posible que estos números no reflejen el estado de Internet porque los datos se extraen de un conjunto de sitios que son suscriptores a una herramienta de indexación. Eso inclina los datos que se miden y los hace diferentes de cuál puede ser el estado de todo Internet.
La indexación de Google ha mejorado desde 2022
Aunque hay algunas estadísticas sombrías en los datos, un punto brillante es que ha habido un aumento constante en las tasas de indexación de 2022 a 2025, lo que sugiere que la capacidad de Google para procesar e incluir páginas puede haber mejorado.
Según IndexCheckr:
“Los datos de 2022 a 2025 muestran un aumento constante en la tasa de indexación de Google, lo que sugiere que el motor de búsqueda puede ponerse al día después de las luchas de indexación previamente reportadas”.
Resumen de hallazgos
El desintexo completo a nivel de sitio web es raro para este conjunto de datos. La velocidad de indexación de Google varía y más de la mitad de las páginas web en este conjunto de datos lucha por indexarse, posiblemente relacionados con la calidad del sitio.
¿Qué tipos de problemas de calidad del sitio afectarían la indexación? En mi opinión, parte de lo que está causando esto podría incluir páginas de productos comerciales con contenido que está volado a los efectos de alimentar el bot. He revisado algunos sitios de comercio electrónico que hicieron los que lucharon para indexarse o clasificarse. Los resultados de búsqueda orgánicos (SERP) de Google para el comercio electrónico son cada vez más precisos. Ese tipo de SERP no tienen sentido cuando se revisan a través de la lente de SEO y eso se debe a que las estrategias basadas en la alimentación de las entidades BOT, las palabras clave y los mapas tópicos tienden a dar como resultado los primeros sitios web de los motores de búsqueda y eso no afectará los factores de clasificación que realmente cuentan que están relacionados con la forma en que los usuarios pueden reaccionar al contenido.
Lea el estudio de indexación en indexcheckr.com:
Estudio de indexación de Google: información de 16 millones de páginas
Imagen destacada por Shutterstock/Shutterstock AI Generator
Con información de Search Engine Journal.
Leer la nota Completa > Los datos sugieren que las tasas de indexación de Google están mejorando