Google quiere la antigua Internet

¿Os acordáis de cómo era Internet en 1995? Yo tengo leves recuerdos, porque con un amigo del instituto nos comenzamos a conectar en aquella época, aunque no fue hasta el ’97 cuando me metí en ello en profundidad. Todo esto viene por una razón: la Internet de aquella época no se parece en nada a la actual. Está claro que la tecnología ha evolucionado, pero no me refiero a eso, sino a los contenidos e información que había, cómo se hacía Internet en aquellos días.

Hace unos días comentaba las turbulencias en Internet que estaba llevando a cabo debido al Farmer Panda Update y una de las cosas que comenté al final del artículo fue que lo único que no había cambiado en todos estos años era que Google contaba todavía con los factores on-page.

Después de publicar aquello han pasado muchas cosas… incluso, Google ha tenido que hacer una actualización de la actualización porque el algoritmo “se había pasado de rosca” y estaba penalizando sitios que no tocaba. La cuestión es que a parte de lo que ya es por todos conocido (que los enlaces de baja calidad penalizan, que los sitios con una mala estructura -y que generan páginas absurdas- penalizan…) queda demostrado que los contenidos de baja calidad, penalizan.

Hace un tiempo Yahoo! compró una red llamada Associated Content. Su director hace un año afirmaba que estaban muy contentos porque a lo largo de un mes, el 90% de los contenidos se visitaba al menos una vez, lo que los convertía en unos buenos SEO. Ahora, tras el cambio que ha llevado a cabo Google ha afirmado que su tráfico ha caído un 70% y que sólo un 30% de las páginas siguen la línea que antes era del 90%, es decir, que sólo 1/3 de los contenidos “tienen validez”.

Volvamos ahora al principio… ¿qué pasaba en el año 1995 en la Internet? Pues que en aquella época la gente que se molestaba (sí, hace años publicar en Internet suponía toda una odisea, no había CMS y todo había que hacerlo en HTML a pelo y a mano) publicaba contenidos útiles en la red de redes, es decir, hubo un momento en el que el 80% de lo que había era útil. Ahora… ¿estaremos en el 20%?

Lo que cambia en estos momentos es que en aquella época seguramente habría en la red unos 100 millones de contenidos y ahora hay un googol de ellos. Pero claro, los resultados de búsqueda son limitados… Estar fuera de los 100 primeros resultados de búsqueda es directamente una tontería… en realidad dar más de 100 resultados en un buscador es algo absurdo de por sí… pero claro, si sólo sirven los 100 de cada búsqueda ¿qué sentido tiene meter un índice con toda Internet?

Hace unos años le expliqué a Jaume una teoría que tenía sobre los índices secundarios y primarios de Google. Esta teoría surgió a raíz de unas explicaciones que me dieron en Yahoo! Research en Barcelona años atrás y que, como un puzzle, fui uniendo cuando comenzó todo lo de los contenidos duplicados. La teoría básicamente es la siguiente:

Cuando haces una búsqueda, Google no puede tener toda Internet para rebuscar, y para eso se utilizan índices. Cuando haces búsquedas del tipo site: pueden aparecer frases de esas de “este sitio tiene resultados parecidos, bla bla bla..” es decir, páginas que al inicio no se tienen en cuenta si no obligas a Google a que los utilice. De ahí que existan unos índices primarios y otros secundarios (donde sí estaría todo indexado).

Si Internet sigue creciendo y creciendo, volvemos a encontrarnos con la misma situación: de todo lo que hay indexado, las cosas importantes ya no “caben” en el índice primario, por lo que se podría hacer tranquilamente otro nivel, un índice primario, secundario y terciario. El índice primario es lo que Google ha de tener en cuenta al mostrar los resultados, es decir, las cosas importantes, las páginas que tienen contenidos importantes y válidos… el segundo índice cambiaría ligeramente y estaría el resto de páginas importantes pero que “por alguna razón” no tienen cabida en los primarios… probablemente porque aún no tengan la “importancia” necesaria, y un terciario en el que esté toda la basura que se va rastreando por la red.

Esto me hace pensar en algo que todavía no he podido comprobar. ¿Qué pasa ahora con los sitios nuevos? Aquellos que comentaban que entraban en el “sandbox” básicamente lo que les pasaba era que estaban en el índice secundario (la mayor parte de veces por lanzar un sitio y meterle enlaces desde el primer momento) y, hasta que no tuvieran cierta “importancia” no pasaban al índice primario. Ahora, supongo, que entrar directamente en el índice primario será muy complejo, por lo que seguramente comenzaremos a ver que posicionar sitios web nuevos requerirán de al menos 3-6 meses hasta asentarse de una forma más o menos segura.

En fin, como dije la última vez, el SEO es lo que Google va a hacer dentro de unos meses… y visto lo visto, los próximos meses van a ser moviditos…

Categorías Javier, SEO

3 comentarios en “Google quiere la antigua Internet”

  1. Creo que tienes bastante razón en todo lo que explicas. Respecto a las webs nuevas, a mi me está costando mucho más que antes sacarlas del sandbox (o meterlas en el índice primario). Además, en una web en particular estoy comprobando un compartamiento muy extraño. Dicha web (4 meses de antigüedad) entra y sale de los índices durante 5 o 6 días y cuando aparece en los resultados de búsqueda lo hace “rankeando” muy bien.

  2. Luis, ese comportamiento que comentas es “normal” desde hace cierto tiempo. Cuando un sitio va a salir del SandBox hay que probarlo para saber si es de calidad o no. Para ello se hace eso, te ponen en los tops de algunas palabras para ver si los usuarios responden a la web. Si la web es de calidad y el usuario se comporta bien te dejarán ahí (o poco a poco te irán acercando)… Son técnicas antispam que usa Google…

  3. Me gustan los conceptos de indices primeras, secundarios, terciarios (a la mente se me viene una piramide más bien), y algo pareciado he estado pensando.
    Lo ideal sería saber los escalones concretos para subir o bajar a uno y otro nivel ;-)

Deja un comentario