Animales en Blanco y Negro: primero el Panda, ahora el Pingüino

Hace un año conocíamos una faceta desconocida de uno de los animales que considerábamos más pacíficos y carismáticos: el Panda. Pero Google le ha dado otro sentido a este entrañable animalito convirtiéndose en uno de los mayores dolores de cabeza para algunos en la red de redes (porque para otros sigue siendo ese animalito cariñoso que nos ha hecho seguir subiendo y subiendo…). Ahora lleva a nuestras vidas otro animal que, al igual que el Panda, vive su vida en colores blanco y negro: el Pingüino. Y es que, como en la informática hay sólo ceros y unos, parece que en Mountain View tampoco hay términos medios: todo es blanco o negro.

La semana pasada le mandaba un correo a varios clientes, amigos, proyectos con los que me he encariñado (llamadlo como queráis) explicando algunas cosas que tenían que cambiar lo antes posible. Yo les decía que antes del 1 de mayo, pero prácticamente el jueves ya tenía que estar todo hecho. ¿Y qué decía en ese correo? Pues eso me lo reservo, a medias.

Como ya sabéis Google en los últimos años ha estado haciendo muchísimos esfuerzos para “aumentar la calidad de sus resultados”. Estos esfuerzos van muy ligados a reducir (por no decir eliminar) el peso del PageRank (el tradicional de cuantos más enlaces mejor) para llevarlo al de “sólo valen los enlaces de calidad y con sentido, y los que son malos, quitan puntos”. Por otro lado también ha habido cambios con respecto a los propios parámetros dentro de los sitios web, enfocándose principalmente en que haya “mucha chicha” en las páginas, pero que sea comestible, nada de fast food. Esto viene a una cosa sencilla… mucha gente se ha enfocado a eso del link juice (una gilipollez como cualquier otra) y lo basaba en los enlaces, y no en las páginas. Se puede hacer, pero sólo la gente inteligente lo hace bien. Para acabar también se le está comenzando a dar ese peso a la personalización que hace un año no teníamos, lo que significa que el factor tiempo también ha vuelto a resucitar, ya que lo social va ligado a la temporalidad.

¿Qué significa todo esto en términos del sitio web? Pues básicamente hay tres factores a revisar que son los que en general están molestando al G-gante. Para comenzar el tema de los enlaces hay que tener presente algo que siempre he dicho: con un enlace desde un sitio es suficiente; me explico. No sirve de nada que un sitio web te ponga el mismo enlace a la página principal desde todas sus páginas. Tener 50.000 enlaces no va a ayudarte, al revés, ahora esos que lo tienen así en general están teniendo problemas. Por otro lado eso no significa que no se puedan tener 20 enlaces a 20 páginas distintas de tu sitio web.

Siguiendo con los enlaces, aunque en este caso ya afectando propiamente al sitio, algo que tampoco quiere Google es tener mucho linking interno en tu sitio que no aporta. Como ya sabemos (y si no lo sabes, retírate), Google controla la calidad de los enlaces entre otras cosas mediante herramientas como Google Analytics. Esto significa que poner una decena de enlaces en un post, entrada, artículo, noticia (o sea, contenido) a otras partes de tu sitio web sin sentido, es decir, ponerlos de forma automatizada mediante plugins o algoritmos poco inteligentes ya no ayuda (en general he tenido siempre dudas de que hacerlo de forma automatizada tenga algún sentido).

Para acabar los pies de página. Primero, al menos siguiendo la LOPD y LSSI no es necesario tener en todas y cada una de las páginas de un sitio enlaces a la información legal, al quienes somos y esas cosas… sino que con que esté en la página principal es suficiente. Por otro lado, y siguiendo con lo que comentaba antes de los enlaces internos absurdos… ¿tiene algún sentido tener en el pie de página enlaces a todas las webs “de un grupo de sitios”? Eso en general no aporta nada más que generar enlaces sin valor.

Con respecto a los contenidos, bueno, hace unas semanas cuando volví de Lyon ya comenté la importancia de escribir bien, del léxico, la gramática… la única forma de saber si algo es de calidad es simplemente escribiendo cosas que tienen sentido, que tienen lógica y tienen relevancia… así las máquinas pueden entender qué narices estamos queriendo explicar o decir.

También hay que tener presente que, como ya pasó con Google Panda, es muy probable que Google Penguin evolucione, y que lo que estamos viendo es simplemente la punta del iceberg, ese iceberg desde donde los tan geniales pingüinos se lanzan como un tobogán hasta llegar al mar.

varias personas me han preguntado estos días sobre este nuevo cambio en el algoritmo de Google. En general en mis sitios todo va subiendo, y es que, no me cansaré de decirlo: sólo hay una forma de salir bien en los resultados de búsqueda, hacer las cosas bien.

Categorías Javier, SEO

14 comentarios en “Animales en Blanco y Negro: primero el Panda, ahora el Pingüino”

  1. La perspectiva o la forma de ver color del animales, black & white, no la había relacionado hasta hoy, pero tiene su lógica.

    Hace días que se hizo esta update, la cual no me ha afectado, pero en este mar de incertidumbre de muchos webmasters y seo’s toda la información es buena.

    Lo de hace días que se lanzó, lo he dicho porque hace días que entro en tu blog para ver si habías escrito algo sobre el tema.

    Estaría genial que escribieras sobre el tema más profundamente, pero me imagino que es pronto para sacar conclusiones.

    Lo que más me preocupa es “”También hay que tener presente que, como ya pasó con Google Panda, es muy probable que Google Penguin evolucione””

  2. Muchas gracias Javier son unas buenas indicaciones, aunque Google para mí gusto no da demasiadas indicaciones a los que como yo deseamos poder vivir de esto (de nuestro trabajo al fin y al cabo) y así por ejemplo, con respecto tras este cambio me surgen dudas como:

    * ¿Sigue teniendo utilidad el uso de negritas para dar densidad a las palabras clave (relacionadas y sin pasarse) y con ello ayudar a Google a conocer mejor nuestros sitios?… o a esto se refiere cuando dicen que penalizarán el exceso de SEO?

    Saludos !

  3. El problema es que, en estos momentos, lo ‘natural’ es algo que google no acierta a reconocer, está incidiendo demasiado en el tema del contenido, de la calidad, cuando lo que está haciendo es marcar reglas de redacción, diseño e interacción.

    En estos momentos están estableciendo quien, como y cuando debe enlazarte, que consideran ellos contenido de calidad y cuando estás sobreoptimizando tu sitio web.

    Y es dificil incumplir unas reglas que no están escritas y que cambian con caracter retroactivo, sin previo aviso.

    Pero seré yo que soy muy raro.

  4. Gracias por los comentarios, Javier. Pese a que me gustaría que profundizases un poco más en este asuntillo, das bastantes pistas como para mantener a más de uno “entretenido” algunas semanas :-)

    Lo malo es que los que “disfrutamos” del uso de herramientas de terceros algo más cerradas de lo normal lo tenemos más jodidillo para pulir y dar cera al tema de los enlaces internos si no queremos liarnos demasiado con las futuras actualizaciones :-(

    Toca ponerse el mono de trabajo, muchachos.

  5. Javier, gracias por compartir tus conocimientos.

    Aunque me hubiera gustado conocer tu opinión sobre “los directorios de enlaces” y el impacto que puedan tener en nuestros proyectos.

  6. Hola Javier, hace tiempo que leo tu blog y este post me ha parecido uno de los mejores. Por ello, quiero darte mi enhorabuena! Y gracias por compartir tus conocimientos. Sin duda, coincido plenatemente contigo, pienso hay que hacer las cosas con sentido común y da igual el animalito que venga ;) Un saludo.

  7. Buenas Javi!! que tal?

    interesante.. ya esperaba tu post sobre Penguin!!

    he leido un par de cosillas sobre esta actualización y a ver si tu me lo “ratificas” ok?

    Lo primero es que dicha actualización solo esta aplicada en un 3-4% de los resultados de busquedas, vamos que la gran mayoria de sitios aun no han visto el “efecto pingüino”

    Y la segunda es sobre si es cierto o no que ahora con este animalito ponedor de huevos, los “anchor text” usando palabras claves tienen menos importancia e incluso su uso excesivo podria verse penalizado??

    Pues eso.. un saludin!
    Xavi

  8. En resumen… las cosas bien hechas, siempre están bien hechas y Google debe preocuparse de mantener la calidad de las búsquedas… No nos queda otra que seguir mejorando nuestras páginas. ¡Ánimo!

  9. Hola Javier,

    Estoy cansado de escuchar lo mismo en muchas webs de “expertos seos” sobre el penguin. Entiendo que si son tan expertos habrán recuperado muchas webs de ese filtro llamado penguin verdad? :)

    Una cosa es evangelizar de cómo hay que hacer un buen seo o optimización de toda la web en cuanto a contenido, servidores, programación… y otra cosa es que Google te recompense por eso.

    Cuando dices “sólo hay una forma de salir bien en los resultados de búsqueda, hacer las cosas bien.”. Me hace gracia porque yo soy de las dos vertientes del black y el white. Tengo muchas webs de las dos variantes y trabajo para muchos clientes de diferentes partes del mundo (USA, UK ….). Te puedo asegurar varias cosas que tu puedes hacer las cosas bien según tú y después google lo interpreta como quiere. Ni ellos mismos saben lo que quieren. Ellos como empresa privada van a aumentar sus beneficios y tú puedes hacer las cosas bien y ellos te pueden penalizar igual. Si pasa eso los puedes denunciar? No si eres un pequeño y si eres un grande tiene que salir en grandes medios como wsj y otros para que se lo tomen más en serio.

    Lo quiero decir con esto es que ya va siendo hora de que cada uno siga su propio camino y haga sus tests. No hagan caso a nadie. Hagan sus tests para ver lo qué funciona y lo que no.

    Yo te puedo decir que todas mis webs de black hat no han sido perjudicadas en ningún update y unas cuantas de white hat han sido afectadas. Y eso que la calidad de mis webs white hat son de alto calibre con enlaces de miles de sitios autoritarios y haciendo las cosas bien. ME puedes decir por qué han sido afectadas? Pues muy sencillo el algo tiene bugs que he podido comprobar yo mismo según los resultados de búsqueda que he visto. Otra opción es adwords que es lo que ellos quieren que gastemos nuestro dinero.

    Por lo tanto aquellos que hayan sido afectado no hagan ningún cambio en sus webs sigan haciendo lo mismo y esperen al siguiente update que será muy pronto. Puede que recuperen sus posiciones o puede que no. Entonces si que será hora de hacer un análisis de toda las web.

    Si ustedes creen que el contenido de calidad es premiado por el buscador, pues siento decirles que eso ahora mismo no se está cumpliendo. Sí todos los expertos seos como seomoz u otros dicen lo mismo de buen contenido bla bla bla …

    Ejemplo:

    Web con contenidos de altísima calidad compartidos por todas las redes sociales y enlazados por grandes webs. Supongo que no es necesario decir que las estadísticas de esas webs en cuanto a rebote, tiempo medio de visita … son excelentes. Pues bien esa web tiene menos visitas que otra black hat con contenido no muy bueno.

    El algoritmo no acierta muchas veces. Le puedes poner un video en tu web y otros trucos para retener al máximo al usuario y que salga de tu web por otro buscador como yahoo jeje.

    Y me falta por hablar del seo negativo. Javier, me puedes decir por qué google permite eso? No es tan sabio y tiene controlado todo? Pues no. Pero si tiene los mejores ingenieros del mundo en sus filas. Sí pero ya ves que bonito que permitan eso. Hay que decir que eso existe desde hace años pero claro el señor Matt Cutts decía que no era posible. Qué va decir? Qué sí?

    No les sería más fácil descontar esos enlaces sidewide o spam links qué hacer eso? Quién pierde aquí? Quién gana? Google no dice que está para ofrecer al usuario los mejores resultados de calidad? Pues no sé eh …

    Qué tú hagas las cosas bien no quiere decir que te puedas proteger de los ataques de tu competencia con el seo negativo. Después te llega una love letter de google por enlaces no naturales y les dices que tú no has sido y no saben si es verdad o mentira. Te dicen que los retires lol. Pero si tú no los has puesto. Esto es muy gracioso y encima penalizado por culpa de otros. Muy bonito eh!!!.

    Y que tus webs no hayan sido afectadas porque has hecho las cosas bien no quiere decir que en el próximo update pierdas visitas. No hay garantías señores.
    Es un juego el que lo quiera aceptar bien y el que no lo quiera aceptar pues ya sabe …

    El problema es que Google ese gran monopolio que se dedica presuntamente a destruir pequeños negocios online y que quiere ganar el máximo dinero posible pues le acabará pasando factura como le pasó a otros. Si hubieran leyes para controlar todo lo que hacen y que cualquier webmaster pudiera denunciar y se les investigara pues todo sería diferente. Mientras tanto a seguir remando.

    Por último decir que todo algoritmo tiene fallos y que el blackhat quieran o no quieran seguirá funcionando mientras que haya un algoritmo.

    Ahora sólo quedarán los mejores y los spam links seguirán funcionando siempre que sepas cómo hacerlos con elegancia y con nuevas estrategias que “parezca medio natural”. En el fondo casi todos los whitehats usamos alguna técnica blackhat. Pedir enlaces por ser un patrocinador pues al final no sé que quieres que te diga. Para mí es blackhat.

    Y super importante no dependas del buscador para conseguir tú tráfico. Usa más el marketing cómo hace el ceo de Seomoz, que después se sorpende que exista el seo negativo y después ha visto que es verdad. Gran marketer y evangelizador pero no tan buen seo en el caso de que no supiera eso.

    PD: no sé si este update es bueno pero yo veo muchas webs con spam arriba del todo :).

    Saludos a todos y espero que todos tengamos suerte en el próximo update. Dentro de nada llegará la ballena, la zebra y después nos iremos todos al zoo.

  10. Hola javier, tengo una duda bastante grande con respecto al linking interno, por ejemplo mira esta url http://www.infoeltiempo.com/es/blanes.html, es una web del tiempo y en cada localidad se enlaza a las 5 ciudades más pobladas de esa comunidad, donde dice localidades cercanas, en este caso Cataluña, está claro que se intenta dar prioridad a las ciudades mas importantes de cada comunidad, igual esos mismos 5 enlaces salen en cientos o miles de páginas(en todas las localidades de cataluña), es esto penalizable ahora con penguin?, es a ese tipo de linking interno al que te refieres en tu post?, el caso es que esta práctica la uso en varios proyectos, y en uno parece que me ha penalizado algunas ciudades, aunque es cierto que en este proyecto hice cosas con links entrantes que no debería, por eso no se si es debido a los enlaces que compré o es debido al tema de link interno, en realidad los links los compré para la home solo, y no me cuadra que me baje otras urls y precisamente muchas de esas urls están en estos bloques, bueno gracias y saludos.

  11. En general el linking interno, si está bien hecho no debería dar problemas ni con Penguin ni con nada. El tema de los links externos “agresivos” sí que están teniendo bastante más influencia de la que se podría prever. Google siempre ofrece datos cuando hay alguna actualización con respecto a sus datos del índice de USA, pero no parece que midan los datos o la influencia con respecto al internacional.

  12. jaja, si así es, solo Google pudo haber convertido dos animales tan tiernos en la pesadilla de muchos webmasters. Lo mejor es pensar en los usuarios antes que en Google, pues Google cada vez más trata de darle lo mejor a los usuarios, en pensar como ellos. Como dice Matt Cutts: internet se trata de usuarios.

  13. Interesante tu punto de vista, sobre todo también algunos comentarios que me sirven para entender un poco más cómo funciona esto. De todos modos tengo algunas dudas, me pareció interesante lo que dijeron en uno de los comentarios acerca de hacer tus propias pruebas, el problema de las pruebas es que si afectan negativamente cuesta mucho después volver a recuperar lo perdido.
    Saludos.

Deja un comentario