Google Sacude el Mundo del SEO: El Fin de los 100 Resultados y su Impacto en Search Console

Por Wilfredo Rojas
22 septiembre, 2025
Por Wilfredo Rojas
22 septiembre, 2025
Google search console

Recientemente, Google ha implementado un cambio sin previo aviso que ha puesto de cabeza al ecosistema SEO. Estamos hablando de una modificación que no solo altera las gráficas de rendimiento en Google Search Console, sino que también representa un desafío mayúsculo para todas las herramientas de análisis que usamos a diario.

Si has notado datos extraños en tus reportes, no estás solo. En este artículo, vamos a desglosar qué pasó, por qué tus métricas se ven diferentes y qué significa todo esto para el futuro del posicionamiento web.

El Origen del Caos: ¿Qué Cambió Exactamente en Google?

El epicentro de este terremoto digital es la eliminación de un parámetro de URL específico: &num=100.

Durante años, este pequeño código permitía a cualquiera (y especialmente a las herramientas SEO como Ahrefs o Semrush) solicitar a Google que mostrara 100 resultados de búsqueda en una sola página, en lugar de los 10 habituales. Esto era una mina de oro para el análisis masivo de keywords, ya que permitía a las herramientas rastrear el top 100 con un esfuerzo 10 veces menor.

Ahora, sin este “atajo”, para conocer el top 100 es necesario hacer 10 solicitudes distintas, una por cada página de resultados. Esto implica un aumento drástico en los recursos, el tiempo y el costo para cualquiera que quiera analizar el posicionamiento más allá de la primera página.

El Efecto Dominó en Tus Métricas de Search Console

Este cambio ha tenido un impacto directo y visible en los informes de rendimiento de casi todos los sitios web. Lo que la mayoría de los SEOs y dueños de páginas están viendo es:

  • 📉 Una caída en las impresiones totales.
  • 📈 Una mejora (aumento) en la posición media.

A primera vista, esto parece contradictorio. ¿Cómo es posible tener menos alcance pero, al mismo tiempo, un mejor ranking promedio? La respuesta está en cómo se mide cada métrica.

Entendiendo el “Porqué” de las Métricas

Para aclarar el panorama, veamos cómo funcionaba antes y cómo funciona ahora.

MétricaAntes del Cambio (con el parámetro de 100 resultados)Después del Cambio (solo 10 resultados por página)
ImpresiónTu sitio web generaba una impresión si aparecía en cualquier lugar de esa página única de 100 resultados. Es decir, si tu keyword estaba en la posición 95, ¡contaba como una impresión!Tu sitio web solo genera una impresión si aparece en la página que el usuario (o el bot) está viendo. Si tu keyword está en la posición 95, no recibirás la impresión a menos que se navegue hasta la décima página.
Posición MediaSe promediaban todas las posiciones, incluyendo aquellas muy bajas (ej: 70, 80, 90) que generaban impresiones gracias a los bots que usaban el parámetro. Esto arrastraba tu posición media hacia abajo (un número más alto).Ahora, solo se registran impresiones de tus posiciones más fuertes (generalmente en las primeras páginas). Al eliminarse del cálculo esas posiciones lejanas (95, 88, etc.), el promedio mejora notablemente (un número más bajo).

En resumen, la “caída” de impresiones no significa que tu web sea menos visible para los usuarios reales. Significa que se han eliminado las impresiones “fantasma” generadas por bots y herramientas de rastreo que ahora ya no pueden ver tu sitio en posiciones lejanas con la misma facilidad.

La Ventaja Oculta: ¿Son Malas Noticias en Realidad?

Aunque este cambio representa un problema para las herramientas, para el análisis de nuestro propio sitio web tiene un lado positivo: los datos en Search Console son ahora más realistas.

Las métricas que vemos reflejan de manera más fiel el comportamiento de un usuario promedio, que rara vez pasa de las primeras dos o tres páginas de resultados. Nos obliga a enfocarnos en lo que realmente importa: estar en las posiciones que generan clics y tráfico de calidad, en lugar de celebrar impresiones en la página 9 que nunca se traducirían en una visita.

¿Por Qué Google Hizo Este Cambio? Las Hipótesis Principales

Google no ha emitido un comunicado oficial, pero la comunidad SEO baraja dos motivos principales que, muy probablemente, actúan en conjunto.

La Lucha Contra el Scraping Masivo

El scraping (extracción automatizada de datos) masivo de sus páginas de resultados (SERPs) le cuesta a Google una enorme cantidad de recursos de servidor. Las herramientas SEO, al usar el parámetro &num=100, realizaban millones de estas búsquedas cada día. De hecho, esta práctica va en contra de las políticas de spam de Google, que prohíben el envío de consultas automatizadas para comprobar rankings.

Al eliminar este atajo, Google le pone un freno significativo a esta práctica, obligando a los bots a comportarse más como humanos y reduciendo la carga en su infraestructura.

¿Un Obstáculo para la Inteligencia Artificial de la Competencia?

Otra teoría muy plausible es que esta movida busca dificultarle el trabajo a modelos de IA como ChatGPT. Estas inteligencias artificiales a menudo rastrean las SERPs de Google para obtener información actualizada y en tiempo real, especialmente para consultas sobre noticias, finanzas o deportes.

Al hacer el scraping 10 veces más costoso y lento, Google podría estar protegiendo su propio ecosistema de datos y complicando la operación de sus competidores directos en el campo de la IA.

El Impacto en las Herramientas SEO que Usamos a Diario

Las grandes plataformas de SEO han sido las más afectadas y ya han comenzado a comunicar cómo se adaptarán a esta nueva realidad.

  • Ahrefs: Su CEO, Tim Soulo, abrió un debate en X (antes Twitter) preguntando a la comunidad si realmente es tan necesario conocer los rankings más allá de la posición 20 o 30. Argumenta que el valor de saber que una keyword está en la posición 80 es mínimo. Sin embargo, muchos SEOs discrepan, ya que esas posiciones lejanas son útiles para descubrir “diamantes en bruto” (keywords con potencial), detectar canibalizaciones o entender el entorno semántico de un sitio nuevo.
  • Semrush: Han adoptado un enfoque más medido. Confirmaron que seguirán rastreando el top 10 con la misma frecuencia, mientras que el top 20 se actualizará de forma menos regular. Para el resto de las posiciones, mencionan haber realizado “ajustes” para minimizar el impacto, aunque no han especificado cuáles son.
  • Accuranker: Esta herramienta, especializada en el seguimiento de posiciones, ha sido muy transparente: por ahora, solo rastrearán el top 20, con la promesa de buscar una solución a futuro para volver a ofrecer el top 100.

La confianza está puesta en que los talentosos equipos de desarrollo de estas empresas encontrarán soluciones innovadoras para seguir brindando datos valiosos sin que esto signifique un aumento desmedido en el precio de sus servicios.

El Horizonte del SEO: Adaptándonos a la Era de la Inteligencia Artificial

Mientras el polvo de este cambio se asienta, el avance de la IA en la búsqueda no se detiene. Estas son algunas de las últimas novedades que están moldeando el futuro del SEO.

Google Entrena a sus “Quality Raters” para las AI Overviews

Las AI Overviews son las respuestas generadas por inteligencia artificial que aparecen en la parte superior de los resultados de búsqueda. Google ha actualizado sus directrices para los Quality Raters (los evaluadores humanos que auditan la calidad del algoritmo) para que empiecen a calificar estas respuestas. Su trabajo será determinar si son correctas, relevantes y si satisfacen la intención de búsqueda del usuario, un paso clave para afinar el motor de IA.

El Debate: ¿Está Muriendo la Web Abierta?

Recientemente, Google admitió en un contexto legal que los ingresos por publicidad display en la web abierta están en declive. Usaron este argumento para defenderse de acusaciones de monopolio. Esto generó polémica, ya que contradice declaraciones anteriores de sus directivos.

La matización oficial es que no se refieren a la web en general, sino específicamente al modelo publicitario. Sin embargo, esto confirma lo que muchos creadores de contenido y medios denuncian: las prácticas de los gigantes tecnológicos han debilitado el ecosistema, derivando tráfico e ingresos hacia sus propias plataformas. El debate está más vivo que nunca.

Bautizando la Nueva Disciplina: ¿Hablamos de SEO, GEO o AI SEO?

Con la irrupción de la IA, han surgido nuevos términos para definir nuestro trabajo. Una encuesta reciente de Search Engine Journal reveló cómo los profesionales se refieren a esta nueva disciplina de cara a sus clientes:

  • 36% utiliza “Optimización de la búsqueda con inteligencia artificial” (AI Search Optimization).
  • 27% sigue usando el término “SEO”, pero especificando que es para plataformas de IA.
  • 18% está adoptando términos nuevos como GEO (Generative Engine Optimization).

Estrategias Prácticas para el SEO del Futuro

Adaptarse es clave. Las estrategias SEO para posicionar en las respuestas de IA como las AI Overviews ya se están definiendo. Las principales tácticas incluyen:

  • Datos Estructurados (Schema): Marcar tu contenido con schema ayuda a la IA a entenderlo de forma clara, precisa y contextual. Es fundamental.
  • Citaciones de Calidad: Lograr que tu marca o sitio web sea mencionado como una autoridad en fuentes fiables (Wikipedia, medios de prensa, foros especializados como Reddit) le da señales a la IA de que eres un referente.
  • Análisis de Apariciones en IA: Utilizar herramientas para monitorear cómo y cuándo tu marca aparece en las respuestas de ChatGPT, Gemini, Perplexity y las propias AI Overviews de Google para entender tu visibilidad y optimizarla.

Una Nueva Realidad para el SEO

En definitiva, la eliminación del parámetro de 100 resultados no es un simple ajuste técnico, sino una declaración de intenciones por parte de Google. Por un lado, representa un desafío inmediato y un dolor de cabeza para las herramientas y agencias que dependían de un acceso amplio a los datos de posicionamiento. Por otro, nos empuja hacia una era de métricas más honestas en Search Console, forzándonos a interpretar nuestros resultados con una lente más cercana a la del usuario real.

Este movimiento es una pieza más en el gran tablero de ajedrez de la búsqueda moderna, donde Google busca proteger sus recursos, controlar su ecosistema de datos y, sobre todo, pavimentar el camino para un futuro dominado por la inteligencia artificial.

Para los profesionales del SEO, el mensaje es claro: la adaptabilidad es y seguirá siendo nuestra habilidad más valiosa. Las herramientas cambiarán, las métricas evolucionarán y las SERPs se transformarán, pero los fundamentos permanecerán intactos: entender la intención del usuario, crear contenido de calidad excepcional y optimizar técnicamente para que tanto humanos como algoritmos de IA nos comprendan.

Más que nunca, nuestro foco debe estar en construir autoridad y relevancia genuinas, porque en un internet donde las respuestas son generadas por IA, la confianza será el activo más importante de todos.

¿Cómo estás adaptando tu estrategia ante estos cambios? ¿Crees que este es el principio de una nueva era en el SEO? Nos encantaría leer tu opinión en los comentarios.

Anuncio - Hosting Web de SiteGround - Diseñado para una fácil administración web. Haz clic para saber más.

También te puede interesar…

¿Te ha gustado el artículo? ¡Déjanos tu comentario!

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Copy link