Foro de Internet 2008

Los próximos 10 y 11 de Mayo parte del equipo de OJO va a estar en el Foro de Internet 2008 que se realiza en el Palacio de Congresos de Madrid.

En este momento hay casi 500 inscritos al evento y desde aquí queremos invitar para que los 100 primeros de vosotros puedan acceder de forma gratuita Ya hemos superado de largo los 100 inscritos por nuestra parte, por lo que a partir de ahora el cupón tendrá un 25% de descuento, lo que hará que el precio final quede en 22 euros. Para ello sólo tenéis que daros de alta (en Acceso al Foro) y, en el campo CUPON introducir la palabra OJO.

El programa es interesante y completo y encontraréis información sobre blogs, marketing, usabilidad, Adsense, Redes Sociales, Yahoo! y un par de charlas de SEO, una de ellas que daré yo mismo y en las que hablaré un poco de hacia dónde va el SEO y qué se espera en un futuro ya no muy lejano.

Yahoo! Slurp 3.0

Desde principios de marzo que Yahoo! está haciendo una actualización en la parte de indexación de su buscador. Esto significa que hay más robots de búsqueda indexando además de haberle cambiado el nombre a Yahoo! Slurp 3.0, aún sin haber comentado qué cambios hay sobre la anterior versión.

Por ahora, de manera puntual, algunos sitios habrán notado un incremento en el rastreo y el cambio en sus ficheros de log de Yahoo! Slurp 2.0 a Yahoo! Slurp 3.0.

Las directivas restrictivas siguen funcionando en esta nueva versión siempre y cuando no se le indique versión a las mismas.

La penalización -6, un error de Google

Hace unos días os hablaba de las penalizaciones en Google, una de las cuales introducía era la penalización -6.

Aunque en muchas ocasiones han dicho que no existía tal penalización, parece que ahora se ha salido que aunque no lo era como tal, sí que ha habido unos errores en el algoritmo de Google que han provocado que determinadas páginas aparecieran por error en ese puesto en vez del que les tocaba.

Y es que ni tan siquiera Matt Cutts sabía que pasaba hasta que ha estado investigando y, sin dar muchos detalles, comenta que el error se ha subsanado y que a lo largo de las próximas semanas todo volverá a la normalidad.

When Barry asked me about “position 6” in late December, I said that I didn’t know of anything that would cause that. But about a week or so after that, my attention was brought to something that could exhibit that behavior. We’re in the process of changing the behavior; I think the change is live at some datacenters already and will be live at most data centers in the next few weeks.

In general if you think a site might have a penalty (perhaps from past behavior) and you think the site is clean presently, you can do a reconsideration request in our webmaster console to ask Google to take another look at the site.

Penalizaciones en Google

El posicionamiento en buscadores es una herramienta muy interesante para conseguir objetivos claros (tráfico, ganar más…) pero que si no se hace de forma correcta puede llevar a diferentes penalizaciones por parte de los buscadores. En los casos de Yahoo! y Live no está muy claro, aunque cuando hay una aparentemente el sitio desaparece de los resultados. En cambio, Google propone otros sistemas para avisar a los webmasters aunque con efectos similares.

Si nos basamos en algunos cambios en los resultados o “la barrita verde” que indica la puntuación de Pagerank podríamos hacer la siguiente clasificación:

  • Puesto -6: últimamente se ha hablado de esta posible penalización que afectaría a sitios que estaban en el puesto 1 o 2 de los resultados y ahora aparecen en el 6. Esta penalización vendría dada por factores externos al sitio web, es decir, por una posible caida de un sitio en una granja de enlaces o similar. Probablemente, si esta penalización es cierta, se estudiará durante unas semanas y luego volverá a su sitio si es una web que no haga ninguna actividad extraña.
  • Puesto -30: una penalización en principio automática debido a técnicas oscuras de posicionamiento (black hat), y, principalmente, por intercambio de enlaces que pueden parecer ficticios a vista de Google. La forma de corregirlo es simplemente reducir ese intercambio de enlaces y mejorarlo con intercambios en sitios de temática complementaria a la que tenga tu sitio.
  • Puesto -60: en este caso se plantea una penalización por Spam Request desde el Webmaster Tools de Google, es decir, que muchos usuarios han denunciado a un sitio o una red que ha sido investigada de forma manual y penalizada. la solución para corregirlo es revisar y corregir los diferentes problemas que podamos ver y hacer un Reinclusion Request en el Webmaster Tools.
  • Puesto -950: es, en principio, una penalización aleatoria, aunque en sitios que pueden aparecer con palabras genéricas “de mucho valor”. Se dice que podría ser por sobreoptimización aunque parece haberse dado en sitios que no tenían nada de SEO. La solución tampoco está clara, ya que parece volver en unos 15 días todo a la normalidad.

Esta lista de penalizaciones viene a ser la lista estándar de las mismas, pero cada caso es único…

Análisis de Contenido en Google Webmaster Tools

La herramienta para webmasters de Google ha añadido una funcionalidad que ayudará a saber determinados aspectos que hasta ahora no parecían relevantes en muchos casos pero que son interesantes para mejorar la experiencia del usuario en los resultados de búsqueda.

En la opción Diagnóstico -> Análisis del contenido de Google Webmasters Tools podemos ver una lista de posibles problemas que el robot de búsqueda haya encontrado o el analizador de los mismos.

Y, para muestra, un ejemplo:

Análisis de Contenido en Google Webmaster Tools

Dominios y subdominios: Google es Internet

Matt Cutts, el salvador AntiSpamHace unos días que saltó la noticia en el PubCon en el que Matt Cutts dijo que dentro de unas pocas semanas comenzaríamos a ver cambios importantes en los resultados de Google por lo que respecta a los subdominios.

A nivel estratégico un SEO siempre ha de pensar como piensa “internet”. Sí, Internet piensa y por eso está estructurada de la forma que lo está, y Google es lo más parecido a Internet en el sentido de organización de la información.

En internet hay dominios, subdominios, carpetas, ficheros… Los dominios pueden ser genéricos o locales, y los locales se utilizan para identificar un país. Si no existiesen estos dominios tendríamos que pensar en organizar la información de otra manera.

Así, con esto en mente, la ampliación de los comentarios por parte de Matt no es nada extraña cuando habla de cómo organizar la información, por ejemplo, “local” (por países):

  • Lo ideal es usar el dominio de la extensión de ese país (dominio.fr, dominio.es…)
  • Si no se puede tener, lo mejor es poner un subdominio (fr.dominio.com, es.dominio.com…)
  • Si no se puede tener un subdominio, pues usar carpetas (dominio.com/fr/, dominio.com/es/…)

Sobre esto hay varias situaciones a tener en cuenta para entender porqué. Por un lado lo que comentaba antes… si existen dominios locales ¿no primarán sobre el resto de dominios en una búsqueda local? No hay que olvidar que hoy en día todos los grandes buscadores (Google, Yahoo!, Live, Ask y Exalead, incluso Baidu y Yandex) priman los resultados idiomáticos y/o locales sobre los genéricos. Es por esto que si enfocas un producto a un idioma o país lo mejor es siempre usar el dominio de ese país.

Con respecto a los subdominios, la situación es similar. Lo que dice Matt es correcto puesto que Google (y otros) ha tratado siempre un subdominio como un dominio diferente, en tanto en cuanto se da por hecho de que los contenidos son diferentes. Es lógico que si uno tiene una página de noticias, otra de mapas, otra de vídeos y otra de empleo, pues utilice subdominios y no carpetas, ya que son temas completamente distintos. En cambio, una página que es simplemente un sistema de noticias, pues no tiene sentido que haya cosas del estilo internacional, nacional, local, pero sí que haya un subdominio de “el tiempo” que no tiene nada que ver con el resto de información.

Y, precisamente por otra razón similar a la anterior, y teniendo en cuenta que la mayor parte de buscadores asigna un idioma a un dominio, es mejor usar subdominios para separar versiones de idiomas que no carpetas. Como antes comentaba, hasta ahora los subdominios se trataban de forma separada, como si de dominios completamente distintos hablásemos, y es por eso que meter carpetas por idiomas no es tan buena idea. Si la página inicial de un sitio está en inglés, se da por hecho que el contenido de todo lo que hay en ese dominio está en inglés. Si metemos una carpeta /es/ lo que hacemos es asignarle por defecto el idioma inglés a esa carpeta, aunque con el paso del tiempo (“y haciendo trabajar al buscador”) él mismo se de cuenta de que eso no es inglés sino español.

¿Qué hay que hacer a partir de ahora? Como siempre: aplicar el sentido común, que es el que a algunos les falta y hace que se lleven las manos a la cabeza cuando se anuncian cambios de este estilo… ¿o es que estaban haciendo trampas y se les acaba el chollo?

Bolsa de Empleo de OJObuscador

Ya está disponible la bolsa de empleo de OJObuscador, una aventura conjunta con los compañeros de Synerquia, gracias a los cuales en unos días dispondremos de una sección específica para aquellos que quieran poner anuncios en el sector SEO, SEM.

Para ello únicamente será necesario acceder a la página principal de OJObuscador donde aparecerá el listado con las últimas ofertas añadidas, o entrando directamente en la sección de empleo donde además hay un buscador que ayudará a encontrar ese trabajo que buscas.

Para los que quieran añadir una oferta, el sistema permite hacerlo, por ahora, de forma gratuita, aunque sólo por un tiempo limitado, ya que en unas semanas cambiará.

Prepárate para la versión 2 del SEO

El pasado jueves estuve en la mesa de posicionamiento que se organizó en la II Jornada de Networking Activo. Tras la presentación de los ponentes y una frase mía de estas para no dormir que dice “el SEO ha muerto”, Jaume Ferré comentó varios puntos que llevábamos estudiando desde hace unas semanas y que si las uno a varios cambios producidos en los últimos tiempos se me ha ocurrido un “cuento” que a algunos les puede sonar a cuento y a otros a futuro.

Hoy en día existen dos algoritmos para la organización de información en la red: Pagerank y HITS.

Por poner un ejemplo de buscadores, Google, Yahoo! y Live utilizan la tecnología de Pagerank y Ask la de HITS.

No sé si recordáis hace un tiempo que se habló de la compra por parte de Google de servidores. Fuera cierto o no, sí que es sabido que se cambió toda la infraestructura del buscador de 486 y Pentiums II a Xeon y similares. Esto podría dar a pensar que Google estaba planteándose crear ya una infraestructura lo suficientemente potente como para albergar las primeras pruebas de HITS.

Y es que HITS necesita una infraestructura bastante grande y por eso hasta ahora no se podía llevar a cabo. Además, la tecnología Pagerank no puede crecer mucho más de lo que lo está haciendo hasta ahora y está previsto que en 2011 pueda dejar de ser útil en vista del rápido crecimiento tanto de usuarios (consultas) como de contenidos (índice).

Esto llevaría a comenzar a buscar la nueva forma de organizar la información. ¿Y cómo conseguir esto? Gracias a los hubs y autoridad de los sitios. ¿Cómo conseguir esto?

Tal y como comentó Jaume en su parte de la ponencia, Google está teniendo en cuenta hoy en día nuevos factores como la permanencia en un sitio web. Este factor es complejo de calcular, pero gracias a las toolbars que suelen solicitar información a los buscadores (y por lo tanto, con esa consulta, aunque no manden información, les da pie a saber qué haces) y a otros factores como puede ser el tiempo que tardas en pulsar de un resultado a otro en la lista de resultados de una consulta, se puede saber de una forma aproximada.

Este factor quizá tan poco habitual había hecho pensar el porqué del éxito de algunos blogs. Hay que tener en cuenta que, aunque la cantidad de páginas vistas por usuario no es elevada, los blogs disponen de algunos elementos que otros sitios no tienen. Lo importante en una página no es enlazar a sitios tipo Digg o Menéame, sino conseguir que el usuario se mantenga allí, ya sea por la cantidad alta de comentarios a leer, porque hay un vídeo de un par de minutos, porque se actualiza con frecuencia y el usuario puede saltar de un artículo a otro y quedarse…

Gracias a esto, los buscadores como Google o Yahoo! están trabajando hoy en día en crear un nuevo índice en el que los motores puedan centrarse creando diferentes nodos que son “la lista blanca” de sitios que estarán ahí pase lo que pase, y gracias a esos sitios (la mayoría temáticos y con una autoridad elevada en su terreno) se conseguirá establecer qué otros sitios son los importantes en la red.

Con esto se solucionarán algunos elementos como el SPAM, ya que HITS, gracias a esto, elimina de forma habitual y automática el SPAM (normalmente los sitios de autoridad no enlazan o dan valor a sitios de spam, por lo que es difícil que aparezcan en los resultados de búsqueda), se da valor a los contenidos por encima de los enlaces, aunque lógicamente se tienen en cuenta (es el valor diferencia de Internet respecto al Mundo Real™) y… personalmente esta nueva versión corrobora mi teoría de hace tiempo que dice que lo importante en la red no es que te enlacen, sino enlazar y generar contenidos, ya que si tú das valor a otros, otros te darán valor a ti de forma natural.

Cada vez más se acerca una revolución en los resultados de búsqueda que nos está llevando a la conjunción de elementos diferenciales en los resultados de búsqueda como los que da Ask3D y que hacen que la búsqueda [NASDAQ] no tenga que ver nada con [Britney Spears]. Lo úncio que le hace falta a Ask para ser el mejor es que su índice crezca 100 veces por encima de lo que es hoy.