Qué es el Google Panda (y cómo no ser penalizado)

Todos hablan del Google Panda pero muy poca gente fuera de Estados Unidos y los países angloparlantes realmente lo ha sufrido. Además, los sitios que lo han sufrido, un 85% no se han recuperado (porque no han sabido o no lo han cogido a tiempo). Y es que Google nos tiene acostumbrados a una gran actualización cada cierta cantidad de años. Hace unos cuantos sufrimos el Google Florida Update, hace menos el MayDay y el Caffeine.

Para ponernos en situación vamos a hacer un breve repaso sobre estos:

  • Florida: Fue un cambio en la infraestructura de Google, un nuevo índice, una mejora de futuro. Básicamente metieron todos los filtros antispam aqprendidos los 6 primeros años de vida del motor.
  • MayDay: Este cambio de algoritmo afectó principalmente a los enlaces, a la gente que hacía de forma abusiva un exceso de linking introduciendo el factor del TrustRank. Esto acabó afectando al long-tail y short-tail.
  • Caffeine: Aunque esta actualización se centró en “el tiempo real” y poder indexar grandes masas de contenidos (algo que sigue ocurriendo, como comenté hace unos días) también tuvo que ver, una vez más, con el mal uso de los enlaces, pasando de enlaces positivos y neutros a positivos, neutros y negativos.

¿Qué ha ocurrido en estos últimos tiempos? Que al indexar de una forma exagerada, el índice se ha empezado a llenar de basura que no se podía medir con la calidad de los enlaces únicamente, por lo que han tenido que meter nuevos sistemas de filtrado. Y es que mucho se ha hablado de la calidad de las páginas, pero ¿qué es calidad para una máquina? Las máquinas han de seguir estándares a la hora de comprender qué les estamos queriendo decir y explicar. Por eso, aunque desde los buscadores nos dicen que no es necesario, sí que sería que un sitio web esté bien construido en HTML, JavaScript o CSS, además de tener una arquitectura de la información bien construida y, principalmente, como bien aparecía en una patente sobre el Quality Score de los contenidos tener una buena redacción, gramática, usabilidad, accesibilidad…

Lo más curioso de esta actualización del algoritmo es que se está realizando por fases. Sabían que aplicar el cambio directamente sería un caos como ya ocurrió en Florida, por lo que han decidido ir aplicando los cambios de forma escalonada en el idioma inglés que, supuestamente, sería el que tiene más mierda en el índice. La primera actualización afectó a un 12% del índice de Google, lo que supone haber eliminado varias decenas de millones de páginas. Esta actualización en principio sólo afectaba a aquellos sitios con lo que se considera contenidos de baja calidad. Una forma de ver qué es esto podría ser los llamados “Soft 404” que aparecen en Google Webmaster Tools, aquellas páginas que se parecen a algo más como una página de error que no una página de contenidos propiamente dicho.

La siguiente actualización fue la ampliación del índice de Estados Unidos a todo el idioma inglés, lo que significó la implicación del Panda en las páginas de cualquier parte del mundo. A parte de Reino Unido, se han dado casos graves de afectación en India e incluso algunos sitios de España (las versiones en inglés de los mismos) se han visto afectados. Esta versión del algoritmo tampoco implicó muchas diferencias, aunque sí que se hicieron ciertas mejoras basadas en las quejas de aquellos que habían sido afectados sin razón aparente, de forma que muchos volvieron a la normalidad.

Ahora parece que, antes del despliegue internacional va a llegar una nueva aplicación, lo que podría ser la tercera fase del nuevo algoritmo. En este caso, tal y como están anunciando, van a desaparecer aquellos sitios que se limitan a copiar contenidos de terceros. Y es que hasta ahora el algoritmo sólo ha tenido en cuenta los contenidos duplicados dentro de los propios sitios/dominios, pero no aquellos sitios que te copian contenidos y los publican de forma automática. Incluso, se plantea, que aquellos sitios que son simples “buscadores” copiando los resultados del propio Google o de otros como Yahoo! o Bing).

¿Cómo evitar ser penalizado por Google Panda? La solución es muy simple: haz las cosas bien. Sí, sé que es o parece muy sencillo decirlo, pero es así de claro. Si tu sitio está bien construido, aportan contenidos de una forma estructurada y con calidad, tiene algunos enlaces de calidad (frente a millones de enlaces sin sentido) no tendrás ningún problema. En los últimos meses me he estado dedicando más que a hacer SEO a sitios, a poner orden en ellos y casi es más efectivo hacer las cosas bien, tener una buena base, intentar al máximo meterle un poco de mejoras de rendimiento, esperar entre 3 y 6 meses y el sitio comienza a ir prácticamente sólo. En el momento en el que comience a tener cierto volumen de visitas hay que intentar hacer algo de promoción en sitios bien valorados y ya está.

Así que ya sabes, si tienes dudas sobre si tu sitio puede ser penalizado por Google, ya puedes darte prisa porque el cambio del algoritmo se aplicará en breve, ya que Google no va a hacer cambios poco antes de final de año, época en la que se producen menos cambios en los resultados desde aquel fatídico diciembre del 2003.

Categorías Javier, SEO

18 comentarios en “Qué es el Google Panda (y cómo no ser penalizado)”

  1. Pensaba Javier que dado que no tienes, normalmente, pelos en la lengua hablarías con algo mas de detalle de Panda. Hay muchas sospechas, y con buena base y datos, de que esta update de Google se ha hecho “especialmente” para destruir la competencia de uno de los nuevos inventos de Google: Google Shopping. “Casualmente” todos estos sitios (léase comparadores de precios) trabajan con contenido duplicado, el gran enemigo de Google Panda…

    ¿Tú sabes Javier lo que se juega Google con su Shopping? Conocerás datos de cómo está creciendo el negocio del ecommerce año tras año en Internet… Quizás el “gran negocio” de Internet. Y Google no quiere quedarse sin ese pastel… ¿Y cómo puede cogerlo? Sencillo: disfrazando de cruzada contra los spammers de contenido duplicado cuando quiere simplemente eliminar a la competencia.

    Mira el Alexa de comparadores de precios de USA o ingleses y me cuentas…

  2. Sí, está claro que es uno de sus objetivos, pero, aunque parezca mentira, todavía no se los ha cargado por agregar contenidos de otros, sino por la baja calidad que ofrecen.

    Sé de buena mano que algunos “comparadores” made in spain han tenido ligeras caídas, pero no tan grandes como se pensaban, y parece ser que se quedarán así. Eso sí, en los sitios que han caído me comentaban que sólo pinchaban en alguna parte, la que normalmente les daba menos juego a la hora de “mejorar” o “diferenciar” los resultados (es decir, aquello que era bastante parecido o similar o de baja calidad).

    Está claro que Google o Bing ya no son sólo buscadores (eso quedó claro hace ya algunos años) y que tienen 2 opciones: o comprar a aquellos que les pueden hacer sombra (y luego acabar yéndose todo el equipo original) o lanzar sus propios productos y, mediante técnicas poco discretas ponerse ellos por delante del resto.

  3. Javier: en uno de los proyectos que llevo, la parte de SEO ha perdido más del 95% de tráfico, se paso de 5000 visitas diarias a 300 pero lo curioso es que el proyecto esta en su máximo apogeo, cada día rompemos el récord del día anterior (este año vamos cuadruplicando las conversiones de a como estaban en enero).

    Es muy curioso puesto que al cliente le estamos agregando mucho valor pero el sitio es lento, algunas veces da error 500 y muchas páginas apenas tienen simples variaciones (un mismo producto con varios landings en donde lo único que cambia es la moneda del precio y el país).

    Pienso que el SEO es muy importante pero Google cada vez comete más errores y en nuestro caso tener contenido “duplicado” es lo que nos ha ayudado a brindarle una buena experiencia a los clientes.

    Saludos cordiales =)

  4. Pues caer un 95% significa que con muchas probabilidades te hayan penalizado… Generar errores 500 es lo peor que se le puede dar a un proyecto (porque de cara a Google le quita la mayor credibilidad) y lo de tener páginas pensadas para distintos países que sólo varía la moneda y eso se puede hacer de una forma que los buscadores consideran “correcta”.

    Nosotros llevamos haciendo muchas mejoras en el tema de la velocidad usando unas tecnologías bastante avanzadas y transparentes que, junto a otras cosas cacheadas y optimizadas hacen que algunas páginas hayan pasado de tardar 20 segundos a 2 segundos de carga… :)

  5. @ Javier: Gracias por tus consejos, todo lo que dices es así! Nos han penalizado, los errores 500 son graves y luego de una semana que el servidor dio esa respuesta desaparecimos de las búsquedas :(

    Lamentablemente como SEO no puedo meterme a la programación ni a infraestructura para mejorar las cosas, así que debo persuadir a dichos departamentos a que no permitan que se den ese tipo de problemas. Con las landings de contenido “duplicado” el problema son las variaciones de los productos; para un álbum musical se tiene página individual para la versión CD y la versión CASETTE… y la única diferencia son estas palabras.

    Trabajo se tiene muchísimo, y en mi caso lo más difícil es hacerle consciencia a los técnicos y diseñadores sobre los aspectos clave en el SEO. Ya veremos que pasa =)

    Saludos!

  6. Es curioso , yo tengo un articulo copiado de una pagina de marketing de articulos, lo puse como prueba hace tiempo para ver si me lo posicionaba Google, el resto de mis articulos son originales, y a partir del Panda update resulta que mi articulo sigue apareciendo , pero la pagina de donde lo copie (con permiso) ha desparecido de las busquedas, como ejemplo para la busqueda “precio vacaciones” y vacaciones precio” sale sobre el puesto 15.

    Creo que mezclar articulos originales con articulos copiados confunde al pequeño panda,

  7. Es curioso pero los errores que se cometen, afectan más al SEO y favorecen a adwords … curioso no ?

    Se dice que los top ads se ampliaran a 4 en vez de tres, y pensar que antes sólo existian ads en la parte derecha.

    Definitivamente la rentabilización empezó con todo

    Saludos

    Pablo

  8. Siempre me he sentido bastante asustado con la posicion dominante de google (quasimonopolística) en el mundo de los buscadores.
    Ahora mismo que de los resultados orgánicos de google dependen muchas empresas y puestos de trabajo como para que anden jugando con nuevos algoritmos y supuestas mejoras que, como ya ha comentado Juan en el primer comentario, tiene toda la pinta de ser una maniobra para beneficiar a Google Shopping.
    Sinceramente, todo ese rollito del contenido duplicado, no es más que penalizar a las páginas que se dedican a indexar contenido, y ¿qué es google más que eso?.

  9. excelente trabajo, descubrí tu pagina el pasado domingo y desde entonces no se cuantas horas he leido y las que me quedan.
    aunque mi profesión es la fotografía, la información que se puede encontrar en tu pagina me esta ayudando mucho para mejorar mi blog.
    Un saludo

  10. Muy buen post, gracias por la información para no ser penalizado. Saludos

  11. Recuerdo con nostalgia aquellos días el Don’t be evil!. Aquellos momentos en los que google era vista por todos nosotros como un soplo de aire fresco, como la demostración de que el romanticismo y el trabajo con fe, podía llegar a derrotar a la diabólica multinacional, en aquellos momentos Microsoft.
    Pero han pasado los años (no muchos tampoco) y las prácticas de Google están siendo más o menos como las de Microsoft y cualquier otra empresa. Ahora sale google panda para penalizar e impedir una actividad, como es la indexación de contenidos, que ellos mismos realizan.

  12. Es una pena que la divesificacion de mercado que está haciendo google le esté relegando a realizar cambios en sus algoritmos y motores de búsqueda que únicamente están estropeándolo cada vez más, pisando negocios legítimos de otras webs. Es obvio que google quiere acabar con al presencia en la red de webs tipo páginas amarillas y de cualquier otro tipo que indexe contenido, y para ello, en lugar de prohibirlas se inventa algoritmos que penalicen una actividad qeu ellos mismos hacen.

  13. Gracias por el artículo amigo, tuve un bajón grande en alguno de mis sitios y me he roto la cabeza pensando en el por qué, seguramente se deba a esta última actualización de Google. Voy a revisar mis sitios para ver si logro escapar del osito. ;)

  14. Desde luego cada vez es mas dificil hacer seo, asi al final no saldran paginas nuevas ante la imposibilidad de que las vea nadie al no poder ascender en el ranking

  15. hola, a día de hoy 06-06-2012 sería conveniente que actualizaseis este articulo, pues el ultimo caso, el de la duplicación de contenidos, he podído comprobar que ya no solo afecta a sitios bajo el mismo dominio, es decir, pondré un ejemplo, tengo dos dominios foro.novanoticia.com y foromovil.novanoticia.com y el que está hecho en html5 está afectado pero no del todo y el que es foro.novanoticia.com está totalmente afectado, tengo que decir que los contenidos son exactamente iguales pues comparten la misma base de datos, aunque el formato es totalmente diferente uno es para moviles y otro para PC, uno está en XHTML y otro en HTML5, uno tiene una forma (aunque tengan cierta similitud en el concepto) y otro no, no son paginas importantes pero a mi me a servido de ejemplo.

Deja un comentario