La nueva UX de Google

Google está cambiando su interfaz al igual que está reajustando sus productos. Google Plus no es una red social, sino que como su nombre indica es un “plus” al propio Google. Y todo esto llega después de que Brin y Page se hayan puesto de nuevo a dirigir la empresa.

Han pasado 15 años desde que una idea de algoritmo llegase a la cabeza de ambos y se convirtiera en realidad, primero creando el buscador genérico, luego creando verticales, luego con la compra de DejaNews tener información de terceros que poder almacenar, que si correo electrónico, que si servicios por aquí y por allí… A los trabajadores se les dejaba un 20% de su tiempo para hacer inventos, pero, no nos engañemos, Google, a diferencia de Yahoo! o Microsoft “siempre” ha sido el buscador y no sus servicios.

Es por eso que ha llegado este cambio de mentalidad, el que los usuarios de Google realmente conozcan el potencial de todos sus productos, muchos desconocidos para la mayoría. Y aquí es donde la renovación de la interfaz llega y se centra en 2 cosas: que haya una integridad entre todos los productos de forma que pases de uno a otro sin problemas y no te sientas distinto, y un foco en los contenidos, en el rendimiento de dichos productos, en que si vas a por correo, el correo sea lo que carga mejor.

Hace años que esto mismo lo comentaba con mucha gente, Google tiene buenos productos pero no es capaz de darlos a conoce porque su página de inicio es un simple cajetín de búsqueda, algo que ha condicionado mucho el crecimiento de todo aquello que no son búsquedas. Esto pasa a diferencia de Microsoft con MSN, punto de inicio, aunque ellos el problema lo tienen en las marcas, en los continuos cambios de nombre. Yahoo! en esto ha sido mucho más inteligente, y aunque no lo parezca es la que más está haciendo por conseguir volver a ser lo que fue hace muchos años. Ha conseguido despreocuparse, una vez más, de las búsquedas para centrarse en los contenidos y servicios.

Y no sé si habréis probado el nuevo Yahoo! Mail, pero a mi me ha dejado sorprendido. Creo que le faltan algunos detalles pero sin duda eso sí es una interfaz clara y, sobre todo, rápida, algo que últimamente hecho de menos en Google Mail. Microsoft, por su parte, está más focalizada en que las cosas funcionen aunque vaya un paso más atrás, intentando integrar todo en su sistema operativo, algo que creo que hace bien, ya que si hasta ahora Windows había tenido problemas de monopolio, con la irrupción de Android o iPhone creo que ahora las cosas van a cambiar, y Windows 8 es la demostración de ello.

Yendo a la parte más, no sé cómo llamarlo…, a mi la nueva interfaz de Google me gusta, los colores me dan bastante igual, porque al final el objetivo que busco es la funcionalidad. Las cosas están donde deben esta, la pantalla es clara, sacan el máximo provecho de la tecnología incluso avanzándose hasta sacar el máximo partido posible de HTML 5 en el que se han involucrado mucho.

Se acerca 2012 y vamos a ver movimientos interesantes. El objetivo ya no se centra tanto en las búsquedas sino en conseguir que los usuarios utilicen los servicios alrededor de esas búsquedas, sobre todo para la integración social. Bing comenzará a hacer uso de Facebook para personalizar sus resultados. Google lo está haciendo con Google Plus. Twitter seguramente mejorará su infraestructura de búsquedas para convertirse en otro competidor por la información de última hora.

Y es que hasta ahora todos los grandes portales han estado mu enfocados en ofrecer nuevos servicios, en ser los primeros en lanzar la nueva herramienta que cambiará el mundo, pero eso está cambiando, ahora el foco es potenciar el uso de todos los servicios de un mismo proveedor y mejorar los servicios existentes eliminando aquello que es poco útil. El objetivo de crear unas nuevas experiencias de usuario es clara, la de optimizar la rentabilidad del usuario.

Exceso de canales de televisión, ¿realidad o ficción?

¿Tenemos demasiados canales de televisión en España? Desde que apareció la TDT han aparecido canales y canales en nuestros televisores, llegando a tener más de 60 canales en determinadas zonas del país. En Estados Unidos el funcionamiento de la televisión creo que es bastante más razonable que aquí, ya que prácticamente toda es por cable (sí, fibra óptica, tipo ONO, e incluso si me apuras, Imagenio) lo que implica pagar una cuota por el servicio de televisión prácticamente siempre. Y si quieres canales especiales (deportes, series, etc) pagas un poco más.

En España si no me equivoco sólo existen 2 canales de pago más o menos para todos: Gol televisión y AXN. No sé si serán muy rentables (el del fútbol supongo, aunque el hecho de que siga habiendo partidos en abierto por esa ley tan extraña de que el fútbol es algo de interés público supongo que no ayuda). De AXN no tengo ningún tipo de datos. Personalmente si dieran series en versión original (o en DUAL) subtituladas (en ambos idiomas) sería un servicio que probablemente pagaría con gusto. Hace mucho tiempo que no lo miro, así que a lo mejor hasta ya lo hacen. Por ahora me es más sencillo seguir las series directamente desde USA en HD.

Pero lo que quería comentar va más relacionado con la noticia que ha aparecido estos días atrás sobre la financiación de Televisió de Catalunya y en general de la “Corporació“. A mi me gusta que exista TV3 y el resto de cadenas del grupo, y me parece correcto que se pague con dinero público, pero lo que no me parece bien es que se gestione como un ente público y no como una empresa privada. He estado varias veces en el centro principal y he de reconocer que está bien montado, pero que quizá sobra gente y, además, que está muy politizado.

Una cadena de televisión pública ha de tener 2 fuentes de ingresos: los impuestos y la publicidad. Pero lo que hay que controlar principalmente son los gastos, y aquí creo que es donde está el error, y no tanto en la programación en sí sino en la dirección.

¿Hay un exceso de canales? No lo creo. Lo que no podemos pretender es pensar que vamos a tener audiencias del 60% como en los años 70, o audiencias del 30% como había en el año 2000. Desde que está la TDT una buena audiencia es el 10% (a mi parecer) en un canal generalista, canales que en ocasiones llegan a superar el 20% con buenas series de producción propia.

Algo que tampoco llego a entender es porqué no se emite todo en HD (pero de la buena, de la de 1080p). La excusa de que “no hay espectro” es una tontería, ya que lo ideal sería que cada cadena de televisión tuviera al menos un 50% de los multiplexores sólo para emitir en HD. ¿Con esto qué quiero decir? Pues que me parece una gilipollez que quieran “reducir costes” eliminando TV3 HD. El 80% de las emisiones de este canal son las mismas que las de TV3 SD por lo que los costes son simplemente los de mantenimiento de las infraestructuras, algo que, teniendo en cuenta que vamos hacia el futuro hay que tener, ahora o dentro de unos años. Yo disfruto viendo TV3 HD a 1080p, creo que es la televisión que deberíamos tener todos en cuanto a calidad tecnológica.

Sí es cierto que debería haber una reordenación de canales. La idea de la distribución que hay ahora es correcta: el canal general (TV3 / TV3 HD), el canal cultural (33), el infantil/juvenil (Super 3 / 3XL), noticias (3/24) y deportes (Esport 3). El canal generalista, el cultural y el de noticias me parecen 100% correctos como están (considero que una televisión pública debe dar estos 2 servicios 24 horas, es decir, información y cultura con programas de producción propia o con documentales y programas de otras cadenas europeas). Además, tanto Canal 33 como 3/24 son canales que suelo ver habitualmente cuando tengo la televisión puesta. Que a algunos les guste más o menos TV3 como generalista, es como todo, pero sí que considero que Esport 3 no puede ser lo que es, y repito, no creo que haya que quitarlo, pero tener el fútbol o la Fórmula 1 en abierto me parece algo incorrecto, pudiendo tener determinados programas de Esport 3 con sistema de pago (mediante las tarjetas del tipo que usan Gol o AXN).

Y el hecho de que Televisió de Catalunya sea un buen canal se puede resumir con algunos datos:

  • Tiene emisión local en la Vall d’Aràn en aranés.
  • Existe el Telenotícies Comarques para desconexión territorial.
  • En 2007 Club Super 3 se convirtió en la asociación infantil más grande de Europa con 1 millón de socios.
  • Se han producido series como Poble Nou, serie con la mayor audiencia en la historia de la cadena.
  • En 1995 fue la primera cadena española en emitir por satélite de forma internacional.
  • Ha sido la cadena que ha dado a conocer a Xavier Sardà, Andreu Buenafuente, Jordi González, Alfons Arús, Júlia Otero, Àngels Barceló, Josep Maria Bachs, Manel Fuentes, Jordi Estadella, Jordi LP, etc.
  • En 2005 se lanzó TV3i, canal interactivo de TV3 con MHP y aplicaciones (una vez más, pioneros en tecnología).

Y como digo, hay que separar lo que es la cadena de televisión con la gestión, algo en lo que, personalmente, sí que creo que vamos bastante mal. No hay que olvidar que las empresas públicas, son empresas pero que se gestionan con el dinero de todos.

CardSorting, ordenar contenidos

Cada vez que he de lanzar un sitio web me hago ciertas preguntas, y las principales son la organización de la arquitectura de las direcciones URL y la de la de los contenidos. Y es que estas dos cosas son las que van a marcar el futuro del sitio web a todos los niveles, desde el propio sitio, la tecnología, el SEO, etcétera.

Y sin duda un concepto muy importante a la hora de organizar los contenidos es el del cardsorting, sistema de organización de tarjetas que permite conocer cómo funciona la cabeza de un usuario a la hora de organizar la información; esto significa que cada uno de nosotros tiene una forma de organizarse la información, pero que debemos intentar generalizarla para nuestros usuarios.

La forma más sencilla para organizar estos contenidos sería la de utilizar unos cuantos “post-its”, cada uno de los cuales tiene contenidos, etiquetas, etc… y el usuario ha de agruparlos según el considere que se deben agrupar, y luego asignarle un nombre a cada uno de esos grupos de “post-its”. La idea es que sean siempre contenidos finales y que sea el usuario el que cree las categorías.

Esto seguramente nos hará ver que la información para algunos usuarios se puede organizar por fechas, por precios, por tipos, por… cada persona tiene unas necesidades y una organización mental. Es por esto que el cardsorting se puede plantear de dos formas: abierto o cerrado.

El sistema de cardsorting abierto es aquel que permite al usuario organizar la información como le parece, es decir, la categorización y/o clasificación la crea el usuario. En cambio, el cardsorting cerrado es aquel en el que el usuario ha de agrupar los contenidos en unas categorías o clasificaciones que se han establecido previamente. Para hacerse una idea más sencilla, si tuviéramos un contenido en WordPress, las categorías serían un cardsorting cerrado y las etiquetas serían un cardsorting abierto.

Al final, podemos resumir que el cardsorting es el sistema por el cuál los usuarios esperan encontrar los contenidos, secciones o funcionalidades de un sitio web.

Cuarentena

Los que me conocen bien saben que una de mis frases es “las cosas no pasan porque sí”. Hace unos año la retoqué ligeramente y aunque la frase de por sí es incorrecta gramaticalmente, quedó es “las cosas ni las personas pasan porque sí”. Básicamente lo que vengo a decir es que todo aquello que te pasa y las personas que te vas encontrando a lo largo de los días tienen alguna razón de ser en tu persona.

Para mi es muy fácil verlo sobre todo con las personas, y más concretamente con personas con las que tienes una relación intensa durante unos meses y, sin saber bien bien cómo, la cosa se acaba (casi casi como empezó). A mi de estas me han pasado unas cantas, y con perspectiva me paso a mirar atrás y me doy cuenta de que estas personas han tenido un lugar destacado en mi vida por alguna razón en concreto (razones muy muy variadas, normalmente). De la misma forma veo momentos clave en mi vida en los que una desgracia o una época muy mala que acaba en un extremo genera otros momentos de inicio. Ya lo dicen, cuando un puerta se cierra, otra se abre.

Hace 10 años tuve una temporada bastante mala. Al cabo de unos años, hablando con una persona a la que conocía poco le dije que estaba buscando “el camino” y, no me preguntéis cómo, pero acabé en una sala con un par de señoras de esas que “te ven” y que me explicaron cosas “de mi vida” que me estaban pasando y porqué estaban pasando. Ya os adelanto que no soy una persona creyente, todo lo contrario, soy bastante racional, aunque mi intuición, sentido común, inconsciente, me dice que algo raro está pasando aunque no lo vea. Aquel día, en aquel lugar básicamente sólo tenía una cuestión, y era referente a mi vida laboral. El resto, aunque no me daba igual, preferí ni preguntar… Es curioso porque lo que me dijeron (que no fue mucho) es algo que se ha cumplido. Su frase fue algo como que, a partir de ese momento iba a tener 3 trabajos, que el primero no tendría nada que ver con “lo mío”, que el segundo sería muy parecido y la base, y que el tercero sería el definitivo. Tras aquello he tenido 3 trabajos: el primero fue de socorrista en Cruz Roja del Mar, el siguiente fue de pinchacables hasta CTO en Grupo ITnet y, tras salir de ahí con mi “espíritu emprendedor”, todo lo que ha sido OJObuscador, luego OJO internet y de ahí todo el tema de SEO hasta Keep It Simple Lab. Sin duda este “tercer trabajo” que es algo muy etéreo es mi trabajo definitivo, porque no nos vamos a engañar, yo ya no puedo trabajar en una oficina con un jefe 8 horas molestando.

Aunque quizá lo que más me quedó fue el segundo comentario que me hicieron, el de la “cuarentena”. Básicamente lo que me dijeron es que por norma general, cada año, los 40 días antes de mi cumpleaños, pasarían cosas raras, que era una época “mala”. Si antes os decía lo de echar la vista atrás, ya no os cuesto si miro ese periodo de tiempo de aproximadamente mediados de noviembre hasta finales de diciembre porque, efectivamente, es para echarse a llorar. Y es que cada año por estas fechas pasa algo. Lo divertido (por sacarle algo entretenido al asunto) es que suele ser doble… es decir, a principios de la cuarentena pasa algo (por ejemplo, el año pasado me fui a Miami, el anterior comenzamos un gran proyecto, el otro…) y al final, cuando se acerca mi cumpleaños, suele acabar con otra bomba informativa.

Este año ha vuelto a pasar. La verdad es que se podría decir que se me había pasado (como casi cada año) pero revisando la agenda de estos días atrás vuelvo a ver el inicio de un buen proyecto y también cambios personales importantes, es decir, cambios de todo tipo. Creo que este año me voy a meter en la cama el 20 de diciembre y no voy a salir hasta el 30, por lo que pueda pasar…

Democracia ateniense

Según van pasando los años, desde 1990, creo que vamos para atrás. La tecnología evoluciona, pero las personas parece que nos hayamos quedado ancladas en el pasado… En USA no se puede enseñar una teta en televisión, pero se puede mandar a la silla eléctrica a un preso. Y ahora que se acercan las elecciones, creo que la democracia española está en sus horas bajas. No puede ser que en 30 años la Constitución no haya evolucionado, porque el resto sí lo ha hecho. Además, esa Constitución y nuestro sistema de votaciones estaba muy pensado para protegernos de otro periodo dictatorial que pudiera venir, pero, la verdad, creo que a estas alturas eso es inviable, y si llegase otra dictadura daría igual ya la Constitución que tenemos.

Tanto del colegio como del instituto siempre tengo un recuerdo especial a la épica griega, cuando nos explicaban su democracia y la forma en que los sabios tenían mucha voz, en ese pueblo que gobernaba. Y es que la Democracia Ateniense sin duda tenía un valor especial por su forma de funcionar. Vale, que había esclavos y gente que no podía votar (como los extranjeros) y que las mujeres tampoco podían hacerlo, pero aún así el sistema era bastante válido. Y es que en política había dos tipos de persona: los funcionarios (que debían pasar un examen para acceder al cargo, al más puro estilo oposiciones) y el resto, “cualquier persona que lo desee” (Ho boulomenos).

Había entonces tres funciones básicas: los funcionarios organizaban y llevaban a cabo los protocolos administrativos; el Ho boulomenos era el iniciador y el ponente; y finalmente la gente, reunida en la Asamblea o en un tribunal, tomaba las decisiones, entre sí o no, o entre las alternativas en cada caso.

Como decía antes, hay que salvar mucho las distancias con todo, pero si pudiera hacer la carta a los Reyes Magos, ahora mismo haría una propuesta de elecciones bastante distinta de lo que estamos acostumbrados, y sería la de elegir a grupos políticos por ministerio y no en global. De esta forma habría que establecer una serie de ministerios clave: Economía-Hacienda-Industria-Trabajo, Exterior-Interior-Defensa, Cultura-Educación-Ciencia, Justicia y Sanidad. No son muchos, y son muy amplios, pero agrupados por cosas en las que realmente haya buenas sinergias. Una vez tengamos estos ministerios, se haría una votación para cada uno de ellos. A mi, personalmente, veo partidos que controlan más de unos temas que de otros, y me gustaría votar a cada uno de ellos por sus acciones. Lo más probable es que los de Cultura, Justicia y Educación sean más de “izquierdas” y los de Economía y Exterior fueran cambiando más según la época. Otra cosa importante sería que en cualquier caso, todos los órganos reguladores no tuvieran intervención política de ningún tipo. Esto me hace pensar, en determinados momentos si tiene que haber un “Ministerio de Justicia” como tal de forma política, o simplemente que fuera un organismo gestionado por los jueces que sean los que ratifiquen que las leyes se ajustan a la sociedad y no a lo que se dicta directamente por los políticos.

Como digo, este sistema (que no sé si ya existe, y si existe, no sé cómo se llama) es un poco ida de olla, pero tal y como va el mundo en el que vivimos la oportunidad de que una única persona tenga la posibilidad de alzar la voz y de que se le escuche debería primar sobre unos organismos que hoy en día considero en muchos casos oxidados. Y es que en el colegio siempre nos han dicho que la Democracia es el mejor sistema político… algo que creo que es falso, porque democracias hay de muchos tipos, y no todas son las mejores.

Y, para acabar, no voy a pedir que votéis a nadie en particular, pero, como este mediodía me decía mi madre: me da igual a quién votes, pero ves a votar.

smushit.net, una API simple de smushit

Si te dedicas al mundo de Internet es muy probable que entre las aplicaciones que utilices se encuentre la de comprimir imágenes… pero el uso de algunas herramientas a veces se hace muy complejo o necesita de servidores con algunas configuraciones extrañas. Es por eso que, como yo mismo me he encontrado en esa situación y soy bastante asiduo a la herramienta de Smush.it de Yahoo! he querido simplificarme la vida y, de paso, os hago partícipes de ello a vosotros.

Que conste que es una simple prueba y que puede fallar (como todo en la vida). El servicio es smushit.net y lo que hace es simplificar la API existente eliminando los datos poco útiles.

El objetivo es que introduzcas por parámetro la URL de la imagen que quieres optimizar y te devuelva la URL de la imagen optimizada. De esta forma con un simple código en PHP, ASP o lo que te apetezca podrás hacer un “fopen” o un “fread” y te devolverá la URL que luego podrás descargar o hacer lo que te apetezca.

El ejemplo es sencillo http://smushit.net/?img=http://smushit.net/Tux.png.

Se aceptan sugerencias y demás… aunque, como digo, es una prueba por entretenerme a pasar el rato.

Arreglando una penalización

Con mucha frecuencia me llegan correos de personas que tienen un sitio web pequeño y que han sido penalizados (o degradados) por Google de alguna manera. Hoy, tomando como ejemplo uno de estos correos, voy a explicaros cómo se puede arreglar una penalización (de las más sencillas) con tan sólo utilizar Google como herramienta (sin Webmaster Tools o Analytics). Esto significa que lo único que necesitamos es un navegador y un poco de imaginación.

El sitio en cuestión es juegostt.com y su problema es que ha caído el tráfico mucho. Lo primero que he hecho es darle una ojeada al sitio para ver si había algún error garrafal o simplemente es un sitio spam, pero básicamente tiene casual games. Hasta aquí todo bastante correcto, sin entrar muy en detalle.

El siguiente paso ha sido revisar el robots.txt:

User-agent: *
Allow: /
Disallow: /ver/
Disallow: /page/0/
User-agent: Mediapartners-Google
Allow: /

Pero antes se hacer una propuesta de robots.txt, vamos a hacer unas cuantas consultas de búsqueda. Para empezar la que nos muestre cuántas páginas hay indexadas del sitio:

site:juegostt.com

Podemos ver que hay 6.610 páginas indexadas y una serie de combinaciones de carpetas y ficheros. Los siguientes pasos son establecer la idea de arquitectura de URLs que hay (sin entrar en el propio sitio web). Para ello voy a hacer las siguientes consultas:

site:juegostt.com -inurl:juegos-de

site:juegostt.com -inurl:juegos-de -inurl:juegos-mas

site:juegostt.com -inurl:juegos-de -inurl:juegos-mas -inurl:tag

site:juegostt.com -inurl:juegos-de -inurl:juegos-mas -inurl:tag -inurl:page

site:juegostt.com -inurl:juegos-de -inurl:juegos-mas -inurl:tag -inurl:page -inurl:swf

En este momento ya vemos que al final de la página nos indica que hay “elementos no relevantes” por lo que pulsaremos y veremos el 100% de los ficheros indexados:

site:juegostt.com -inurl:juegos-de -inurl:juegos-mas -inurl:tag -inurl:page -inurl:swf

¿Qué hacer en este momento? Pues ir revisando cada uno de estos “bloques” o “carpetas” o “ficheros” de forma autónoma. Por ejemplo, y empecemos por el final… los ficheros SWF, en este caso que son juegos, no hace falta que Google los rastree, por lo que eliminaremos la indexación de esa carpeta a través del robots.txt. De la misma forma, las paginaciones sólo hacen que generar contenidos duplicados y no sirven para “posicionarse” bien, así que, aunque sirven para el rastreo de los contenidos, lo mejor es eliminarlo.

En los resultados de Google que habían quedado nos encontramos con algunas páginas que aunque legalmente han de estar en la web, no hace falta que estén en los resultados de búsqueda. Estas páginas como proteccion-de-datos.html, aviso-legal.php, aviso-legal.html, enlaces/, webmasters/ o toda la carpeta sitemaps/data/ no influyen negativamente en los resultados de búsqueda, pero tampoco sirve de nada que estén, así que vamos a incorporarles una meta etiqueta de noindex.

<meta name="robots" content="noindex">

Ahora nos quedan las carpetas siguientes: juegos-de, juegos-mas y tag. Si “activamos” el filtro en la búsqueda, quedando algo como esto:

site:juegostt.com -inurl:juegos-de -inurl:juegos-mas inurl:tag -inurl:page -inurl:swf

sólo deberíamos ver lo que hay en esas carpetas. Debemos revisar dos cosas, la primera que estas páginas no tengan paginación… y en caso de que la tuvieran deberíamos filtrarlas a través del fichero de robots.txt; la segunda es revisar aquellas páginas que tienen 0 resultados (en las que debemos devolver un código de error 404) y las que tienen 1 o 2 resultados (en las que, de nuevo, usaremos la meta-etiqueta de noindex) que hemos de filtrar para que no se consideren contenidos duplicados, ya que es muy probable que varias tags acaben dando resultados de las mismas páginas.

Si ahora hacemos lo mismo con “juegos-mas” tendremos algo como:

site:juegostt.com -inurl:juegos-de inurl:juegos-mas -inurl:tag -inurl:page -inurl:swf

y en este caso esta página sólo es una paginación de casi 200 páginas que no aportan nada (y que tienen títulos duplicados, al igual que descripciones. Es por ello que, excepto la primera página el resto las eliminaremos a través del robots.txt.

Y para acabar, la revisión de donde más contenidos hay, la categorización de las fichas de juegos. Ejecutaremos una consulta similar a la anterior…

site:juegostt.com inurl:juegos-de -inurl:juegos-mas -inurl:tag -inurl:page -inurl:swf

Aquí tenemos una estructura compleja (no es la que yo usaría, pero eso ahora no toca). Tenemos por un lado las carpetas “raíz” que corresponden a las categorías propiamente dichas, de las que cuelgan dos tipos de contenido, los juegos y las paginaciones. Como ya hemos quedado anteriormente, las paginaciones no las vamos a indexar, pero hemos de buscar la forma de filtrar todo en el fichero de robots sin fastidiar el resto de elementos.

Mi propuesta de fichero de robots.txt es la siguiente:

Sitemap: http://juegostt.com/sitemap.xml
User-Agent: *
Disallow: /swf/
Disallow: /page/
Disallow: /juegos-mas-jugados/
Allow: /juegos-mas-jugados/
Disallow: /juegos-de-*/*/
Disallow: /ver/
User-Agent: Mediapartners-Google

A parte de todo esto hay un detalle que hay que añadir, que es el uso del rel=canonical en todas las páginas (excepto en aquellas que tienen el noindex). Con esto conseguiremos que, además de eliminar los contenidos duplicados de las páginas existentes, no se puedan generar contenidos duplicados de páginas nuevas que puedan aparecer por error.

Que conste que esto es una revisión MUY básica pero que es muy recomendable hacer en todos los sitios. Esto no es SEO, es HACER LAS COSAS BIEN, pero es un ejercicio que muchas veces no hace nadie cuando se plantea un proyecto y que es básico tanto para los usuarios como para los motores de búsqueda.

#20N: a quién votar

No soy muy de hablar de política, pero ahora que falta semana y poco para tener que visitar de nuevo el colegio creo que deberíamos reflexionar muy bien lo que vamos a hacer en esta ocasión. Y es que está claro que pase lo que pase aún quedan un par de años para vez la luz.

Me hace gracia eso de que hay crisis. Crisis era lo que había en la Guerra Civil cuando había cartillas de razonamiento y la gente tenía que comer pan duro con cucarachas y gusanos. Por ahora la mayoría de la gente tiene “pan y circo”, porque por suerte aún en España no pasamos hambre y veo a la gente en el supermercado comprando (aunque sea “marca blanca”) y sigo viendo a la gente yéndose de tapas al bar y a ver el fútbol.

Con respecto a lo de que “no hay trabajo” también lo he comentado varias veces… trabajo hay, lo que hay es exceso de gente en determinados sectores y esa gente que “sobra” debería cambiar a otro sector y reciclarse. Además, podéis hacerlos la pregunta que me hago yo: ¿verdad que la gente “buena” (profesionalmente) tiene trabajo? En este caso sí que voy a dejar aquellos que se dedican a la construcción, donde dí hay gente buena sin trabajo, pero eso ya es por el tema de la “burbuja inmobiliaria”. En el resto de sectores creo que hay que reciclarse. Sé que por esto me puedo ganar muchos enemigos, pero de verdad, hay que pararse y pensarlo fríamente.

Hay que tener en cuenta un detalle que quizá nadie se haya parado a pensar: el dinero no se crea ni se destruye, se mueve. Y esta “crisis” lo que ha hecho es que el dinero no se mueva, sino que se quede en la gente que suele tener mucho dinero. Es sabido que hay fondos de inversión alrededor de toda Europa que no saben dónde invertir cientos de millones de euros. Esa es una realidad, talento hay, entiendo que nadie se quiera pillar los dedos invirtiendo en determinados proyectos, pero hay gente que con algo de dinero sabe montar proyectos muy interesantes (yo al menos puedo hablar de lo que conozco, que es Internet).

Y ahora llegan las elecciones. El Partido Popular tiene todas las de ganar; mucha gente no quiere que eso sea así, pero las encuestas así parecen mostrarlo. Yo lo único que pido es que no haya mayorías absolutas (ni por un lado ni por otro), creo que no nos lo merecemos porque acabaríamos peor de lo que estamos. Los dos próximos años el Gobierno de los distintos países de la UE van a mandar poco, relativamente, porque precisamente la UE va a ser la que mande determinadas directivas para ir haciendo cosas. Todos a una, en este caso, a salvar el Euro como moneda.

En muchas ocasiones he tenidos dudas de si ir a ejercer mi derecho a votar, pero esta ocasión tengo claro que iré a votar, aunque no lo haré ni por PSOE ni por PP, sino por alguien que realmente pueda presionar a alguno de los dos mayoritarios a hacer algo decente por nosotros.

Google DevFest Barcelona 2011

Esta mañana estoy en el Google DevFest Barcelona 2011. Voy a estar sólo esta mañana, así que aviso que las charlas que se den esta tarde no las comentaré. En realidad vengo principalmente por las de Chrome y las de Google+, que esta tarde tengo sesión de tuning WPO a niveles ya insospechados de capas OSI…

NOTA: Para aquellos que quieran seguir el evento en directo, les recomiendo seguir el hashtag #DevFest en Twitter, donde muchos de los asistentes están retransmitiendo (por lo que yo me limitaré a escribir en el blog).

Welcome Intro – Alejandro Villanueva

Nos dan la bienvenida y dan las gracias a los desarrolladores y a los asistentes de muchas partes de España. Google está convencida de los emprendedores y desarrolladores de Barcelona y el epicentro que supone en Europa en Mobile World Congress.

Este va a ser el primer evento “de muchos” y quieren fichar a una persona responsable de comunicación para la parte de desarrolladores (a ver si es verdad que comunican más).

New in HTMLPaul Kinlan

Tienes la presentación disponible en línea.

Paul comienza hablando de las Richer Web Apps y de HTML5. Nuevos tags details y summary, con algunos ejemplos sencillos. También presenta output funcionando en Google Chrome.

Otro elemento nuevo es mark, con el que se pueden remarcar algunos textos (aunque habla que puede parecer spam). Además muestra un ejemplo de un Speech Input (por ahora sólo funcionando en Chrome).

También comenta sobre las animaciones… que han de tener como máximo 60fps (que es lo que suelen soportar las pantallas por norma general). Interesante que haya que “informar” a los navegadores que quieres animar algo.

Un detalle interesante el elemento prerender disponible en Chrome. Con pequeños fragmentos de JavaScript (que también funcionan en Firefox) podemos saber si un usuario está conectado o desconectado. Incluso podemos saber si el usuario se conecta o desconecta de la red.

Web Intents es un proyecto en el que Paul está trabajando. La web tiene un problema y es que no se puede integrar con otros servicios. Hay muchas API para conectarte con muchos servicios, cada una a su manera. El objetivo es integrar todos estos servicios entre sí, y el ejemplo que se presenta es con servicios de bookmarks.

Con Web Intents la idea es tener un sistema de interconexión entre aplicaciones a nivel de sevidor, es decir, que los distintos sitios web sepan hablar entre sí. Hay que definir una acción (share, edit, pick, view…) y el usuario elige el servicio con el que quiere trabajar.

Los que usan Android conocerán algo similar, que es por ejemplo el “share” del teléfono, en el que pulsas y las aplicaciones aparecen ahí… el objetivo es poder hacer esto en la web. Existe el sitio WebIntents.org donde poder ver unas primeras aproximaciones. El sistema es bidireccional y funciona principalmente en JavaScript para acceder a los datos de una forma sencilla.

A partir de ahora se podrá acceder a la cámara y audio con unas pocas líneas de código y sin necesidad de Flash u otras aplicaciones externas. También se puede llegar a abrir en ventanas a pantalla completa. Para todo el tema del streaming existe el Web RTC un protocolo abierto para conseguir la transmisión en tiempo real de datos.

Con el audio también se pueden hacer algunas cosas. Pero no sólo con el elemento audio; se pueden conseguir efectos muy grandes sin se combina con canvas por ejemplo creando un sintetizador, gráficas, etc…

Para estar al día es recomendable seguir HTML5Rocks donde se pueden seguir ejemplos de las novedades en los distintos navegadores según van aplicando.

GLSLMr.doob

GLSL (OpenGL Shading Language) es un lenguaje de programación pensado para generar gráficos. Para empezar un ejemeplo thewildernessdowntown.com o ro.me. Este sistema se parece bastante a nivel de lenguaje a C/C++, y se compila y ejecuta en la GPU si es posible.

Básicamente lo que se trata es de usarlo como una API contra la GPU (aunque se limita muchas veces a triángulos, líneas y puntos).

Google+ for Publishers & AuthorsAde Oshineye

Google+ lo que pretende es hacer un upgrade de la experiencia de usuario de todos los servicios de Google. Los círculos son grupos de personas que te permiten definir qué y a quién compartir información.

¿Quién de la sala duerme junto a su teléfono? ¡No mintáis!

Normalmente haces una foto y se te olvida subirla o hacer cualquier cosa. De ahí que la aplicación +Mobile (Google+ Mobile) permite subir las imágenes a Picasa en background. Ayer se lanzaron las Google+ Pages.

El objetivo de Google +1 es aumentar la experiencia de la parte de búsqueda. ¿Cuál es el mejor resultado? Seguramente un resultado que alguno de tus amigos te recomienda. Eso es lo que se ha hecho. Google+ ayuda al ranking pero no es un factor del ranking.

Puedes instalar el código del botón Google +1 y con un par de líneas funciona. Existe un código asíncrono.

El rel=canonical evita que haya muchas URL apuntando a un único contenido. Esto afecta a Google +1 porque los enlaces también los sigue en las páginas.

Para controlar lo que se publica en redes sociales debemos tener en cuenta: schema.org, Open Graph Protocol, Meta o “best guess”. Lo primero que se implementó fueron las recetas, que es algo bastante sencillo. Se puede controlar el título, imagen y descripción que luego aparecerán.

Best Practices: la URL debe ser rastreable (indexable) y pública para que Google sea capaz de rastrear el contenido. Gracias al canonical, el sistema utiliza esta URL y no la pública.

Google +1 tiene estadísticas demográficas en Google Webmaster Tools, y también tiene datos en Google Analytics. Además tiene una serie de plugins.

¿Cuáles son los siguientes pasos? Incluir el botón en tu página e invertir en Rich Snippets.

Google+ for DevelopersAde Oshineye

¿Dónde está la API? Poco a poco, paso a paso. Es muy distinta la API que se va a lanzar con Google+, un cambio de mentalidad en Google, un cambio de tecnología. Lo primero que hay que pensar es en la Plataforma.

Uno de los pasos es es tener un panel donde ver la lista de API, sus límites e incluso agregar a tu equipo para que todos usen los mismos identificadores. Además se ha lanzado el API Explorer desde donde controlarlas. Existe una lista de Client Libraries para muchos lenguajes de programación.

Hay que tener en cuenta las bases: JSON, OAuth, Quotas y API Keys. Con las librerías hay que olvidarse de gran parte de esto, sólo centrarse en el producto y su desarrollo. Otro elemento es el Sign In, que se debe hacer externalizado. Un botón, se abre una ventana, entra con su cuenta de Google y ya tienes toda la información. Tres líneas de código.

El objetivo no es traer la gente de Facebook hacia Google+, sino a la gente que utiliza Google darle una infraestructura y un servicio mejorado, ampliado. AHora mismo no tienen prisa en abrir la API, sino que van a ir paso a paso para cumplir los objetivos de seguridad y privacidad que se merece la plataforma.

Y por mi parte hasta aquí el evento… la verdad es que lo poco que he podido estar me ha parecido muy interesante, aunque de niveles técnicos muy distintos… al menos la parte de Google+ me ha parecido muy ligera y más para dar a conocer el producto.

Cómo Bing mejora el PageRank contra el WebSpam

Hablar de sistemas antispam en los resultados de búsqueda es algo de lo que he hablado muchas muchas veces en los últimos meses. Cada buscador busca sus propios sistemas para mejorar el análisis de los sitios web, ya sea mediante factores humanos, analizando las propias páginas y con decenas de métodos para aumentar la calidad del índice. Pero sin duda este sistema de Microsoft me ha sorprendido ya que se basa en el propio PageRank de Google.

La patente Locally computable spam detection features and robust pagerank de Microsoft deja bien claro que hoy en día tanto el PageRank como HITS son fácilmente manipulables, ya que se basan principalmente en los enlaces que envía y recibe un sitio y que esto ya no sirve de cara a que un sitio tenga más relevancia. Incluso, un detalle importante, es que hasta ahora los sistemas antispam debían analizar el contenido de las propias páginas una vez tuviéramos un grafo de la red de redes.

El objetivo es el de facilitar la identificación de páginas spam y de reducir la evaluación de las páginas con spam. Por ejemplo, un spammer puede intentar inflar su ranking generando una estructura de enlaces alrededor de una página concreta (granja de enlaces). Este tipo de granjas es fácilmente detectable en el grafo web. Una página tiene una cantidad de enlaces y estas páginas también tienen sus enlaces, y la suma de todos estos elementos, en su mayor o menor medida es la que genera el ranking de dicha página. De esta forma también podríamos sacar una media y ver qué elementos están por encima de ese umbral determinado. A partir del momento en el que se conocen algunas páginas marcadas como spam y otras marcadas como no-spam se podría establecer una serie de conductas que se generan de forma natural o artificial.

Por norma general el sistema antispam por defecto sería similar al siguiente, en el que encontramos un módulo que analiza las páginas con o sin spam, y otro que luego ordena los resultados, mayormente basado en la cantidad de enlaces que encontramos en él mismo.

Pero existe la posibilidad de integrar un componente que lo que haga es hacer ese análisis de filtrado de cantidad de enlaces en base a la limitación de la efectividad de la manipulación de enlaces. Este sistema vendría a ser similar al que Google por el cual, según ellos, en sus listados de enlaces entrantes “sólo aparecen aquellos que realmente son importantes”.

La idea final es la de encontrar la forma de integrar lo que los humanos dictaminan que es webspam con lo que las máquinas pueden aprender en lo que hace referencia a los enlaces. Es decir, un usuario dictamina que una página es spam, se analiza su “alrededor” y a partir de ahí se genera un vector en el grafo mediante el que se aprende qué se ha hecho y se aplica a otros sitios sin necesidad de saber ni analizar el contenido propio de la página, lo que ahorra tiempo al buscador, ya que no es necesario el análisis de los contenidos, algo que lleva demasiado tiempo.

La patente básicamente lo que nos ofrece es una propuesta, y aunque da ciertas pistas de por dónde quieren ir no dan datos más concretos. Aún así, sí que hacen referencia al tamaño de la información a gestionar, ya que la cantidad de niveles de enlaces entrantes puede ser desde muy reducida hasta la utilización de todo el grafo, es decir, usar todos los enlaces de Internet para analizar el spam a un sitio concreto.

Personalmente tampoco veo ninguna novedad en algo que no se esté haciendo ya por parte de todos los motores de búsqueda. Es sabido que el peso de los enlaces ha cambiado mucho y que en muchos casos las granjas de enlaces ya no sirven para mucho (lo único es saber si no afectan o afectan negativamente, algo que este sistema puede llegar a decidir), y, sobre todo, que en cualquier caso, hay que enseñar a aprender a los distintos módulos de los rastreadores e indexadores.