Turbulencias en Internet

Muchos de los que me conocéis desde hace años recordaréis que en las primeras charlas que daba en algunos eventos comentaba siempre que estaba calculado que sobre 2012, en base al crecimiento de Internet, los buscadores tendrían que cambiar radicalmente su algorítmica. Ahora parece que ese momento ha llegado.

Vamos a poner unas cuantas sobre la mesa: Google va a perder la patente del Pagerank, en estos últimos años han aparecido herramientas como Facebook, Twitter, Digg… el SEO “tradicional” se ha extendido de forma que “cualquiera hace SEO” y, como decía antes, Internet ha crecido quizá más de lo que se esperaba. ¿Qué pasa si metemos todo esto en la coctelera?

Estas semanas atrás ha habido una pelea entre Bing y Google, provocada por vete a saber quién, ya que me huelo que todo ha sido muy bien inducido para que se montase un escándalo que dañase la imagen de Bing, y a Google le ha salido el tiro por la culata. Básicamente lo que se decía es que Bing copiaba resultados de Google. A ver, ¿los buscadores por qué tienen tanto interés en meter su “barra de herramientas” en los navegadores de los usuarios? Pues básicamente porque son unas de las mejores herramientas espía que tienen para hacer seguimiento de qué visita la gente. No hablo de privacidad ni de IPs, sino que se puede saber qué búsquedas se hacen en “cualquier buscador” y de ahí a qué páginas se va y se deja de ir. Esto, digan sí o no, es muy útil para encontrar nuevas páginas a rastrear. Aunque ahora Google diga que no usa estas técnicas y Bing sí, está claro que en su día Google las utilizaba, porque yo recuerdo tener proyectos que era la única forma de llegar a ellos: tener la “toolbar” instalada.

Con respecto a la patente del Pagerank ya he comentado en entradas anteriores sobre el tema y básicamente la solución es la misma: desde 2005 la cantidad de enlaces no es tan importante sino su calidad, pero la calidad viene medida en base a unos sitios concretos en las que se puede medir por “otros factores” que no sean tan automáticos su peso. Por ejemplo, la Wikipedia tiene factores con los que se puede medir la calidad de sus contenidos y enlaces, como podría ser la cantidad de veces que una entrada se ha actualizado, su frecuencia, cuántos colaboradores ha tenido… estos datos son “fácilmente conseguibles” por parte de un motor de búsqueda. De la misma forma pasa con Twitter, que un enlace tiene más o menos peso en base a los seguidores de un usuario, cuántos tweets publica cada día, el crecimiento de la cuenta, su antigüedad… de nuevo factores que se pueden conseguir con cierta facilidad sin que influyan “otros sitios o enlaces de Internet”. Podríamos sumarle ahora esa pequeña aplicación que ha salido para Google Chrome que permite “limpiar” los resultados a tu gusto. Básicamente esto es lo que se estaba haciendo, pagando, a gente repartida por el mundo para revisar determinados resultados… si tú tienes una cuenta “aceptable”, haces muchas consultas, usas Google con frecuencia, etcétera, la forma en la que ordenes tus resultados puede tener cierta influencia… otra forma de medir la calidad sin necesidad de Pagerank (en este caso me refiero al algoritmo en sí).

Desde hace un año que vengo hablando del Web Performance Optimization y, aunque muchos me tomaron por un zumbado, está claro que es algo que no todo el mundo tiene acceso y que es difícil. Esta frase la leía ayer en una presentación de Steve Souders, el creador de la palabrota y trabajador de Google. Si Google considera que esto no es accesible a todos… ¿no se le puede dar un valor superior a aquellos que lo hacen sólo por el esfuerzo? Lo bueno del WPO es que, al igual que el SEO, no es lo mismo hacerlo en un país que en otro… ¿a qué me refiero? pues a que el hecho de haber cambiado el WPO de las webs de frases ha hecho que en España el tráfico sea “muy parecido” pero en Latinoamérica crezca una barbaridad… ¿Por qué? Pues básicamente porque en sitios donde la conectividad es una mierda, si le metes muchas mejoras al rendimiento, se nota de forma exponencial, en cambio, en España, que tenemos cosas “decentes”, el cambio tampoco es tan radical. Esto confirma algo que también llevo diciendo desde hace muchos años: Google tiene “servidores espías que analizan cosas” en cada red neutra de cada país. En el caso de España, Google es parte de Espanix.

Y ya por último… ¿Por qué en 2012 iba a cambiar todo? Pues porque el IPv6 va a hacer que Internet cambie radicalmente los próximos años… ahora mismo nos encontramos con la posibilidad de que Internet se estanque “muy levemente”. Digo esto porque está claro que “nadie” quiere que Internet se pase, y aunque los rangos de IPv4 se acaben y se repartan con otro rasero, el hecho de que ahora te “regalen” 4 millones de direcciones IP “para empezar a probar el IPv6” dice mucho… ¿Qué voy a hacer con 4 millones de IPs? ¡Si es que no me las voy a acabar nunca! De la misma forma que el WPO es difícil, aquellos que se adapten antes a mantener “redes paralelas” durante un tiempo de IPv4 e IPv6, metiendo entradas A y AAAA en las DNS van a tener un punto diferencial, aunque este está claro que será limitado en el tiempo.

Ahora que tenemos todo esto sobre la mesa voy a explicar otro punto más: los concursos de posicionamiento. Sí ¿a qué narices viene esto? Muy sencillo. También desde hace años he comentado que los concursos de posicionamiento “con palabras raras” fastidian los buscadores. En general nos creemos que cuando hacemos una búsqueda en Google sólo afectan aquellas páginas en las que aparecen los términos de búsqueda, pero eso no es cierto: afectan todas las páginas indexadas por el motor, y precisamente Google y Bing tienen ¿billones? de contenidos indexados. Sí, contenidos, porque afectan las imágenes, entradas de blogs, noticias, documentos de texto, presentaciones, flash… Los concursos de posicionamiento generaban una serie de contenidos que, aunque sólo afectaban a una búsqueda, cuando se metían 2 millones de resultados en esos billones de contenidos “algo” deberían provocar; está claro que estamos hablando de ¿tan sólo un 0,00000000001% de los contenidos?

Ahora llega cuando Google hace unas semanas anuncia que “va a hacer limpieza de basura”. Como siempre la gente le hace caso a Matt Cutts y no piensa en el trasfondo de la situación. ¿Qué puede significar que Google haga limpieza? Pues que tiene mucha mierda en su índice, lo que conlleva que la calidad de los resultados baje. Esto significa que las quejas que tienen los estadounidenses sobre los resultados comience a tener cierto sentido, aunque en otros países no se haya notado tanto, y es que es un tema de idiomas… el inglés es uno de los idiomas “peor tratados” por los spammers y donde los buscadores han de poner más esfuerzo en corregir. Pero claro, el índice global de Google es uno único… lo que significa que “si se cargan un 2% del índice”, por narices ha de afectar al resto de países. Cargarse un 2% del índice puede significar que han destruido 20.000 millones de contenidos web tranquilamente, que se dice pronto… algo que, por narices afecta a los resultados de búsqueda, porque Google ha recalculado todo su índice, ese índice que se renueva completamente cada 3 meses… es decir, que “estamos viendo sólo la punta del iceberg de lo que nos espera”, ya que el proceso probablemente finalizará completamente para el mes de mayo.

Si a esta limpieza del índice le sumamos que este 2011 se ha de “eliminar” la vieja patente del Pagerank y meter las nuevas (como antes decía, esas en las que “otros factores no-Internet” van a afectar… ¡ya se ha liado parda!

Como siempre, los SEO se quedan en la superficie, leen mucho y, aunque se hacen experimentos ninguno tenemos el índice que puede tener Google o Bing para calcular, por eso a veces hay que echarle imaginación al asunto. Supongo que después de leer esto veréis que, aunque no sé qué está pasando (como nadie lo sabe excepto los que trabajan en el motor de indexación), sí que tengo ideas de qué va a pasar. Eso sí, personalmente voy a seguir haciendo “lo contrario” a lo que el resto del mundo hace, voy a seguir dedicando tiempo y esfuerzo a que “las cosas que yo puedo controlar” que son mi sitio web y sus contenidos siempre estén impecables y que “los alrededores” fluyan… En estos 10 últimos años en los que existe el SEO han evolucionado muchas cosas excepto una: los factores on-page. Nadie duda que los contenidos y una buena arquitectura de la información junto a una buena infraestructura es esencial, en cambio los enlaces y los factores externos cambian cada 6 meses…

El SEO es optimizar los sitios web para aquello que los buscadores van a tener en cuenta dentro de un año, he dicho.

Categorías Javier, SEO

17 comentarios en “Turbulencias en Internet”

  1. Leì en la web de seoservicesperu que es de mucha importancia la optimizacion web ya que por este motivo se obtiene mayor publicidad en la red y la pàgina web adquiere mas prestigio.

  2. Es de mucha importancia la optimizacion web ya que por este motivo se obtiene mayor publicidad en la red y la pàgina web adquiere mas prestigio pàginas web como seoservicesperu pueden ayudar.

Deja un comentario