Foro de Internet 2008

Los próximos 10 y 11 de Mayo parte del equipo de OJO va a estar en el Foro de Internet 2008 que se realiza en el Palacio de Congresos de Madrid.

En este momento hay casi 500 inscritos al evento y desde aquí queremos invitar para que los 100 primeros de vosotros puedan acceder de forma gratuita Ya hemos superado de largo los 100 inscritos por nuestra parte, por lo que a partir de ahora el cupón tendrá un 25% de descuento, lo que hará que el precio final quede en 22 euros. Para ello sólo tenéis que daros de alta (en Acceso al Foro) y, en el campo CUPON introducir la palabra OJO.

El programa es interesante y completo y encontraréis información sobre blogs, marketing, usabilidad, Adsense, Redes Sociales, Yahoo! y un par de charlas de SEO, una de ellas que daré yo mismo y en las que hablaré un poco de hacia dónde va el SEO y qué se espera en un futuro ya no muy lejano.

Yahoo! Slurp 3.0

Desde principios de marzo que Yahoo! está haciendo una actualización en la parte de indexación de su buscador. Esto significa que hay más robots de búsqueda indexando además de haberle cambiado el nombre a Yahoo! Slurp 3.0, aún sin haber comentado qué cambios hay sobre la anterior versión.

Por ahora, de manera puntual, algunos sitios habrán notado un incremento en el rastreo y el cambio en sus ficheros de log de Yahoo! Slurp 2.0 a Yahoo! Slurp 3.0.

Las directivas restrictivas siguen funcionando en esta nueva versión siempre y cuando no se le indique versión a las mismas.

Yahoo! actualiza resultados

Parece que Yahoo! está volviendo a hacer cambios en sus resultados de búsqueda, pero que no se han confirmado oficialmente todavía.

Según algunos comentarios, parece que los cambios podría recuperar algunas funcionalidades de la última actualización… aún así, habrá que esperar qué dicen de forma oficial.

La penalización -6, un error de Google

Hace unos días os hablaba de las penalizaciones en Google, una de las cuales introducía era la penalización -6.

Aunque en muchas ocasiones han dicho que no existía tal penalización, parece que ahora se ha salido que aunque no lo era como tal, sí que ha habido unos errores en el algoritmo de Google que han provocado que determinadas páginas aparecieran por error en ese puesto en vez del que les tocaba.

Y es que ni tan siquiera Matt Cutts sabía que pasaba hasta que ha estado investigando y, sin dar muchos detalles, comenta que el error se ha subsanado y que a lo largo de las próximas semanas todo volverá a la normalidad.

When Barry asked me about “position 6” in late December, I said that I didn’t know of anything that would cause that. But about a week or so after that, my attention was brought to something that could exhibit that behavior. We’re in the process of changing the behavior; I think the change is live at some datacenters already and will be live at most data centers in the next few weeks.

In general if you think a site might have a penalty (perhaps from past behavior) and you think the site is clean presently, you can do a reconsideration request in our webmaster console to ask Google to take another look at the site.

Penalizaciones en Google

El posicionamiento en buscadores es una herramienta muy interesante para conseguir objetivos claros (tráfico, ganar más…) pero que si no se hace de forma correcta puede llevar a diferentes penalizaciones por parte de los buscadores. En los casos de Yahoo! y Live no está muy claro, aunque cuando hay una aparentemente el sitio desaparece de los resultados. En cambio, Google propone otros sistemas para avisar a los webmasters aunque con efectos similares.

Si nos basamos en algunos cambios en los resultados o “la barrita verde” que indica la puntuación de Pagerank podríamos hacer la siguiente clasificación:

  • Puesto -6: últimamente se ha hablado de esta posible penalización que afectaría a sitios que estaban en el puesto 1 o 2 de los resultados y ahora aparecen en el 6. Esta penalización vendría dada por factores externos al sitio web, es decir, por una posible caida de un sitio en una granja de enlaces o similar. Probablemente, si esta penalización es cierta, se estudiará durante unas semanas y luego volverá a su sitio si es una web que no haga ninguna actividad extraña.
  • Puesto -30: una penalización en principio automática debido a técnicas oscuras de posicionamiento (black hat), y, principalmente, por intercambio de enlaces que pueden parecer ficticios a vista de Google. La forma de corregirlo es simplemente reducir ese intercambio de enlaces y mejorarlo con intercambios en sitios de temática complementaria a la que tenga tu sitio.
  • Puesto -60: en este caso se plantea una penalización por Spam Request desde el Webmaster Tools de Google, es decir, que muchos usuarios han denunciado a un sitio o una red que ha sido investigada de forma manual y penalizada. la solución para corregirlo es revisar y corregir los diferentes problemas que podamos ver y hacer un Reinclusion Request en el Webmaster Tools.
  • Puesto -950: es, en principio, una penalización aleatoria, aunque en sitios que pueden aparecer con palabras genéricas “de mucho valor”. Se dice que podría ser por sobreoptimización aunque parece haberse dado en sitios que no tenían nada de SEO. La solución tampoco está clara, ya que parece volver en unos 15 días todo a la normalidad.

Esta lista de penalizaciones viene a ser la lista estándar de las mismas, pero cada caso es único…

Análisis de Contenido en Google Webmaster Tools

La herramienta para webmasters de Google ha añadido una funcionalidad que ayudará a saber determinados aspectos que hasta ahora no parecían relevantes en muchos casos pero que son interesantes para mejorar la experiencia del usuario en los resultados de búsqueda.

En la opción Diagnóstico -> Análisis del contenido de Google Webmasters Tools podemos ver una lista de posibles problemas que el robot de búsqueda haya encontrado o el analizador de los mismos.

Y, para muestra, un ejemplo:

Análisis de Contenido en Google Webmaster Tools

Dominios y subdominios: Google es Internet

Matt Cutts, el salvador AntiSpamHace unos días que saltó la noticia en el PubCon en el que Matt Cutts dijo que dentro de unas pocas semanas comenzaríamos a ver cambios importantes en los resultados de Google por lo que respecta a los subdominios.

A nivel estratégico un SEO siempre ha de pensar como piensa “internet”. Sí, Internet piensa y por eso está estructurada de la forma que lo está, y Google es lo más parecido a Internet en el sentido de organización de la información.

En internet hay dominios, subdominios, carpetas, ficheros… Los dominios pueden ser genéricos o locales, y los locales se utilizan para identificar un país. Si no existiesen estos dominios tendríamos que pensar en organizar la información de otra manera.

Así, con esto en mente, la ampliación de los comentarios por parte de Matt no es nada extraña cuando habla de cómo organizar la información, por ejemplo, “local” (por países):

  • Lo ideal es usar el dominio de la extensión de ese país (dominio.fr, dominio.es…)
  • Si no se puede tener, lo mejor es poner un subdominio (fr.dominio.com, es.dominio.com…)
  • Si no se puede tener un subdominio, pues usar carpetas (dominio.com/fr/, dominio.com/es/…)

Sobre esto hay varias situaciones a tener en cuenta para entender porqué. Por un lado lo que comentaba antes… si existen dominios locales ¿no primarán sobre el resto de dominios en una búsqueda local? No hay que olvidar que hoy en día todos los grandes buscadores (Google, Yahoo!, Live, Ask y Exalead, incluso Baidu y Yandex) priman los resultados idiomáticos y/o locales sobre los genéricos. Es por esto que si enfocas un producto a un idioma o país lo mejor es siempre usar el dominio de ese país.

Con respecto a los subdominios, la situación es similar. Lo que dice Matt es correcto puesto que Google (y otros) ha tratado siempre un subdominio como un dominio diferente, en tanto en cuanto se da por hecho de que los contenidos son diferentes. Es lógico que si uno tiene una página de noticias, otra de mapas, otra de vídeos y otra de empleo, pues utilice subdominios y no carpetas, ya que son temas completamente distintos. En cambio, una página que es simplemente un sistema de noticias, pues no tiene sentido que haya cosas del estilo internacional, nacional, local, pero sí que haya un subdominio de “el tiempo” que no tiene nada que ver con el resto de información.

Y, precisamente por otra razón similar a la anterior, y teniendo en cuenta que la mayor parte de buscadores asigna un idioma a un dominio, es mejor usar subdominios para separar versiones de idiomas que no carpetas. Como antes comentaba, hasta ahora los subdominios se trataban de forma separada, como si de dominios completamente distintos hablásemos, y es por eso que meter carpetas por idiomas no es tan buena idea. Si la página inicial de un sitio está en inglés, se da por hecho que el contenido de todo lo que hay en ese dominio está en inglés. Si metemos una carpeta /es/ lo que hacemos es asignarle por defecto el idioma inglés a esa carpeta, aunque con el paso del tiempo (“y haciendo trabajar al buscador”) él mismo se de cuenta de que eso no es inglés sino español.

¿Qué hay que hacer a partir de ahora? Como siempre: aplicar el sentido común, que es el que a algunos les falta y hace que se lleven las manos a la cabeza cuando se anuncian cambios de este estilo… ¿o es que estaban haciendo trampas y se les acaba el chollo?

Bolsa de Empleo de OJObuscador

Ya está disponible la bolsa de empleo de OJObuscador, una aventura conjunta con los compañeros de Synerquia, gracias a los cuales en unos días dispondremos de una sección específica para aquellos que quieran poner anuncios en el sector SEO, SEM.

Para ello únicamente será necesario acceder a la página principal de OJObuscador donde aparecerá el listado con las últimas ofertas añadidas, o entrando directamente en la sección de empleo donde además hay un buscador que ayudará a encontrar ese trabajo que buscas.

Para los que quieran añadir una oferta, el sistema permite hacerlo, por ahora, de forma gratuita, aunque sólo por un tiempo limitado, ya que en unas semanas cambiará.

Prepárate para la versión 2 del SEO

El pasado jueves estuve en la mesa de posicionamiento que se organizó en la II Jornada de Networking Activo. Tras la presentación de los ponentes y una frase mía de estas para no dormir que dice “el SEO ha muerto”, Jaume Ferré comentó varios puntos que llevábamos estudiando desde hace unas semanas y que si las uno a varios cambios producidos en los últimos tiempos se me ha ocurrido un “cuento” que a algunos les puede sonar a cuento y a otros a futuro.

Hoy en día existen dos algoritmos para la organización de información en la red: Pagerank y HITS.

Por poner un ejemplo de buscadores, Google, Yahoo! y Live utilizan la tecnología de Pagerank y Ask la de HITS.

No sé si recordáis hace un tiempo que se habló de la compra por parte de Google de servidores. Fuera cierto o no, sí que es sabido que se cambió toda la infraestructura del buscador de 486 y Pentiums II a Xeon y similares. Esto podría dar a pensar que Google estaba planteándose crear ya una infraestructura lo suficientemente potente como para albergar las primeras pruebas de HITS.

Y es que HITS necesita una infraestructura bastante grande y por eso hasta ahora no se podía llevar a cabo. Además, la tecnología Pagerank no puede crecer mucho más de lo que lo está haciendo hasta ahora y está previsto que en 2011 pueda dejar de ser útil en vista del rápido crecimiento tanto de usuarios (consultas) como de contenidos (índice).

Esto llevaría a comenzar a buscar la nueva forma de organizar la información. ¿Y cómo conseguir esto? Gracias a los hubs y autoridad de los sitios. ¿Cómo conseguir esto?

Tal y como comentó Jaume en su parte de la ponencia, Google está teniendo en cuenta hoy en día nuevos factores como la permanencia en un sitio web. Este factor es complejo de calcular, pero gracias a las toolbars que suelen solicitar información a los buscadores (y por lo tanto, con esa consulta, aunque no manden información, les da pie a saber qué haces) y a otros factores como puede ser el tiempo que tardas en pulsar de un resultado a otro en la lista de resultados de una consulta, se puede saber de una forma aproximada.

Este factor quizá tan poco habitual había hecho pensar el porqué del éxito de algunos blogs. Hay que tener en cuenta que, aunque la cantidad de páginas vistas por usuario no es elevada, los blogs disponen de algunos elementos que otros sitios no tienen. Lo importante en una página no es enlazar a sitios tipo Digg o Menéame, sino conseguir que el usuario se mantenga allí, ya sea por la cantidad alta de comentarios a leer, porque hay un vídeo de un par de minutos, porque se actualiza con frecuencia y el usuario puede saltar de un artículo a otro y quedarse…

Gracias a esto, los buscadores como Google o Yahoo! están trabajando hoy en día en crear un nuevo índice en el que los motores puedan centrarse creando diferentes nodos que son “la lista blanca” de sitios que estarán ahí pase lo que pase, y gracias a esos sitios (la mayoría temáticos y con una autoridad elevada en su terreno) se conseguirá establecer qué otros sitios son los importantes en la red.

Con esto se solucionarán algunos elementos como el SPAM, ya que HITS, gracias a esto, elimina de forma habitual y automática el SPAM (normalmente los sitios de autoridad no enlazan o dan valor a sitios de spam, por lo que es difícil que aparezcan en los resultados de búsqueda), se da valor a los contenidos por encima de los enlaces, aunque lógicamente se tienen en cuenta (es el valor diferencia de Internet respecto al Mundo Real™) y… personalmente esta nueva versión corrobora mi teoría de hace tiempo que dice que lo importante en la red no es que te enlacen, sino enlazar y generar contenidos, ya que si tú das valor a otros, otros te darán valor a ti de forma natural.

Cada vez más se acerca una revolución en los resultados de búsqueda que nos está llevando a la conjunción de elementos diferenciales en los resultados de búsqueda como los que da Ask3D y que hacen que la búsqueda [NASDAQ] no tenga que ver nada con [Britney Spears]. Lo úncio que le hace falta a Ask para ser el mejor es que su índice crezca 100 veces por encima de lo que es hoy.

Charla: el valor del SEO como promoción

Como ya comenté la semana pasada, el próximo jueves hay un evento de netwoking al que no debéis faltar, sobretodo porque la mesa de debate que habrá sobre SEO será muy interesante.

Yo estaré como moderador de la mesa (y también participaré en ella), pero los ponentes importantes que habrá en el workshop El valor del posicionamiento como promoción son:

  • Carles Ferrer, responsable de Altas Buscadores
  • Iván Yemail, dará una visión muy interesante sobre porqué las empresas han de hacer SEO
  • Jaume Ferré, el SEO desde el punto de vista de una red de sitios web
  • Alec Oxenford, responsable de OLX, sitio líder de clasificados online

El horario del workshop que será de 17:30 a 18:30 en el edificio Citilab, en Cornellà de Llobregat. A los que queráis asistir, tan sólo os tenéis que apuntar rellenando el formulario de asistencia.

WorkShop Barcelona: Valor del SEO como promoción

El próximo Jueves 29 de Noviembre se realizan en Barcelona las II Jornadas de Negocios de Networking Activo.

Dentro del evento, que en esta ocasión será gratuito, me han encargado que modere una mesa de debate / workshop llamado El valor del posicionamiento como promoción.

Aún no está acabada de cerrar la lista de ponentes, que publicaré a lo largo de la semana, pero sí el horario del workshop que será de 17:30 a 18:30 en el edificio Citilab, en Cornellà de Llobregat.

A los que queráis asistir, tan sólo os tenéis que apuntar rellenando el formulario de asistencia.

Cómo es el Live Webmaster Tools

Hoy he tenido la suerte de poder acceder a la beta privada de las Live Webmaster Tools. Básicamente al igual que Google tiene su Webmaster Tools o Yahoo! su Yahoo! Site Explorer, Live ha sacado este sistema para gestionar los sitemaps.

La primera impresión al utilizarlo es que hay cosas que no quedan muy claras y otras que se quedan muy muy muy cortas… Al fin y al cabo, Google lleva la delantera ya que fueron los que “idearon” el protocolo.

Para empezar nos pide algunos datos:

Live Webmaster Tools

Lo bueno que tiene es que te pide una dirección de correo por sitio web añadido. De esta forma si hay algún problema, además del boletín, nos lo comentarán en esa dirección de correo.

Como al añadir he elegido la opción de verificar por fichero (y no por meta) he de subir un fichero que se llama igual para todos. Además incluye nuestro número de serie de usuario/sitio, lo que no sé si supondrá algún día algún problema de seguridad.

Live Webmaster Tools

Una vez entramos en nuestra ficha (Overview) podremos observar algunos detalles, la dirección web, la última vez que pasó MSNBot, el “Domain Rank”, las páginas indexadas, si está el dominio bloqueado o no… Además nos encontramos con el “top 5” páginas del dominio (una cosa que he visto es que no distingue entre dominios y subdominios, cosa que en algunos casos no puede ser bueno y debería dar la opción de elegir si quieres gestionar tooodo el dominio desde un sitio, o cada subdominio por separado, cosa que Google no deja y ha de ser siempre por separado).

En este top podemos ver el Domain Rank de cada sitio, el idioma de la página, el país de la página la última vez que se indexó y si está bloqueado o no. La verdad es que los que muestra para nosotros no son ni mucho menos las mejores páginas…

Live Webmaster Tools

A diferencia de otros, Live nos ofrece la posibilidad de hacer búsquedas internas por nuestro sitio y nos da la lista de páginas (parece que ordenadas por importancia) sobre esa consulta.

Live Webmaster Tools

Para continuar tenemos el top enlaces entrantes y salientes, es decir, los 10 sitios mejores que nos enlazan y a los que enlazamos.

Live Webmaster Tools

Live Webmaster Tools

Y finalmente la página donde podemos ir pulsando para que se actualice nuestro Sitemap.

Live Webmaster Tools

Y hasta aquí todo lo que es la herramienta. Como decía, aún me parece muy pobre, y sé que Microsoft es capaz de hacer cosas mejores.

A parte de esto, hay un menú de navegación en el que tenemos una herramienta para verificar robots.txt, pero que siempre aparece en blanco, y no te permite, por ejemplo, precargar el que haya en alguno de nuestros sitios añadidos.

Live Search Webmaster Portal Beta

Acaban de comenzar a enviar las primeras invitaciones para apuntarse al Live Search Webmaster Portal, aunque sólo solicitan los datos en este momento, ya que al finalizar el proceso te reenvían a la página principal de Live.

Entre la información que piden tenemos los datos personales, si vamos a gestionar dominios nuestros y/o de otros, qué cantidad de ellos, qué información nos interesa más (si tienen todo lo que pone, el servicio será casi igual de completo que el de Google)…

In order to provide the highest level of service to our Beta Partners, we will start off the beta program in September with a small number of participants, and incrementally increase the number until all applicants have been accepted by late November. The information you provide us thru the registration survey will ensure that our participants represent the widest range of industries and company sizes.

Google tras Godaddy

GoDaddyNo cabe duda de que si esto ocurre, personalmente, será mucho mayor bombazo que la compra de Youtube, pero es lo que indican las malas lenguas que puede estar preparándose…

Hoy en día Godaddy podría considerarse el mayor registrador mundial de dominios, ya no por sus precios, sino por los servicios que ofrece alrededor de los dominios… y todo esto viene también por un comentario en un sitio que habla de dominios.

Hay que tener en cuenta que Godaddy parece que solicitó hace un tiempo una patente en la que se hacía específico la posibilidad de ordenar resultados de búsqueda basados en la reputación de un dominio (algo bastante similar al Pagerank).

En fin, hay que recordar que Google tiene un acuerdo con GoDaddy para ofrecer dominios por 10 dólares… por lo que los lazos ya estaban hechos…

Gestión de URL’s dinámicas en Yahoo!

En muchas ocasiones hemos comentado que a nivel posicionamiento el hecho de tener una URL con sesiones o similares es algo que no gusta a los motores de búsqueda. Parece que Yahoo! ha dado un paso en solucionar este problema.

Gracias a Yahoo! Site Explorer si entramos en alguno de nuestros sitios web nos encontraremos la opción de URL’s Dinámicas. Esta opción permite darle órdenes al sistema de forma que direcciones del tipo:

http://www.direccionweb.dom/pagina.php?id=300&sesion=abc123

se conviertan en direcciones

http://www.direccionweb.dom/pagina.php?id=300

de forma que se ignore el parámetro de sesión y no se dupliquen las páginas del índice. Esto puede ser muy útil también para sitios que disponen de un buscador interno y no se quiere indexar el parámetro de búsqueda, entre otras múltiples posibilidades.

Google ya ejerce como agencia SEO

SeogleCuando Google se planteó la compra de Doubleclick también llevaba incorporada la compra de una empresa que había comprado anteriormente la misma: Performics.

Independientemente de si la compra está hecha o no, de si la legislación la permita o no y todas esas cosas, parece que ya empieza a haber un aprovechamiento por parte de Doubleclick o Performics en Estados Unidos de la marca Google.

Y es que Grant Crowell lo tiene claro, ya que hace unas semanas recibió un aviso de un cliente ya que desde Google le habían comentado ya no sólo gestionar sus campañas de Adwords en forma de vídeo, sino de la optimización orgánica de los resultados (aká SEO).

Las conclusiones de Crowell tras una pequeña investigación es que Google está ofreciendo SEO bajo su marca y no la de ninguna de las empresas que ha comprado, aunque no queda muy claro exactamente quién es quién ofrece este servicio dentro de la empresa, vaya, el departamento o subempresa en cuestión.

Creo que nadie de los que está en el sector duda que empresas y particulares acuden a los buscadores pidiendo ayuda sobre SEO y SEM. El SEM está claro, ya que no es que las empresas vayan pidiendo ayuda, es que la propia compañía va detrás de grandes empresas que se gastan millones para ofrecerles gestionar campañas gratuitamente. Si las empresas ganan más, invierten más, lo que significa más beneficio para Google. ¿El problema? Que si la empresa usa normalmente una agencia, esta se queda sin su x% de comisión por gestionarles la cuenta, lo que implica que Google lucha directamente contra grandes agencias.

El problema es cuando nos metemos en SEO. Las agencias grandes no tienen grandes departamentos SEO, sino que suelen ser departamentos pequeños para “tener algo”, porque “los clientes les están pidiendo una cosa llamada SEO”. El SEO se está convirtiendo en algo habitual, los buscadores saben que los SEO son su lucha particular contra el SEM, por mucho que digan que son cosas “complementarias”. No sería la primera vez que una empresa comienza a dejar de anunciarse en Adwords porque ya consigue los niveles de tráfico, clientes o usuarios que quería a través de los resultados naturales (sí, pocas, pero las hay). ¿Por eso ahora Google ofrece SEO?

Hace unos meses precisamente me encontré en una situación similar con respecto a OJObuscador… ¿puede una empresa hablar sobre resultados de búsqueda y sus productos y hacer SEO a la vez? En mi caso no habría mucho problema, es una empresa privada que habla de buscadores pero no tiene mano directa en los resultados en sí, podría llegar a tener información privilegiada, pero aún así no debería ser problema. Pese a todo, OJObuscador no ofrece servicios SEO, al menos de otra forma que no sea formativa.

En cambio, Google, Yahoo! o Live sí que tienen control de los resultados de búsqueda. No sé, por poner un ejemplo… ¿qué pasaría si Ismael se pudiera ahora a ofrecer SEO y te prometa que es capaz de posicionar tu web en Live? Personalmente entran conflictos de intereses muy grandes… pero aún así, es un trabajador de Microsoft… ¿qué pasa ahora si es la propia Microsoft la que te llama para ofrecerte de forma natural resultados de búsqueda predeterminados?

El dios Google nos cambia el SEO

Y su apóstol Matt nos trae la buenanueva. Y es que, ahora, porque lo dice Google, todo el mundo se va a poner a hacer cambios y a aplicar las “novedades” que no son tales.

Entre la lista de cosas que comentó Matt Cutts nos podemos encontrar (hay que tener en cuenta que era una charla en la que se hablaba de WordPress, por lo que muchos de los temas le hacen referencia):

  • WordPress trae los títulos heredados, así que es mejor cambiarlos para que el contenido de la página esté al principio y no al final (nada nuevo, siempre se ha dicho que el título ha de estar muy apurado y que lo importante ha de estar delante)
  • Google no tiene en cuenta la cantidad de “carpetas” que hay hasta un documento final. Es decir, que es lo mismo /1/2/3/4/5.html que directamente /5.html (personalmente no estoy nada de acuerdo con esto; el árbol de navegación es uno de los elementos más importantes. es posible que si algo se enlaza directamente desde la página inicial no afecte, pero una vez “perdido” el post, sí que se tiene en cuenta)
  • La extensión de los ficheros no se tiene en cuenta (.html, .htm, .php. asp) exceptuando ejecutables y similares (.bat, .exe…)
  • Hay que tener cuidado con las descripciones de las imágenes en los posts. WordPress lleva los campos “título y descripción” que deben ser cumplimentados (y si queremos hacerlo mejor, ponedles un title…)
  • Aunque Google es registrador de dominios, no utiliza esos datos para el ranking. (lo que no dicen es si utilizan los datos para saber de quienes son varios dominios o para realizar penalizaciones en masa)
  • Para entrar en Google News hay que demostrar que el blog está escrito por varias personas (y aún así, OJObuscador tiene un equipo de redacción a parte de los colaboradores habituales, y no entra, y, en cambio, blogs unipersonales sí aparecen…)
  • Las direcciones URL que hasta ahora utilizaban el separador underscore _ serán contados de la misma manera que el guión . (habrá que esperar a ver los cambios en los resultados de búsqueda para saber cuándo se aplica y si realmente afecta)

Cambios de Julio en Yahoo!

Un mes más Yahoo! anuncia su “gran actualización” sobretodo para que los webmasters y heavy users den feedback sobre lo ocurrido.

No se ha especificado nada sobre qué cambios habrá en el índice o en los resultados de búsqueda, por lo que habrá que experimentar con los resultados para comprobarlo.