VPS baratos para desarrolladores

Los programadores tenemos esa ligera manía de querer probar cosas. Pero para probar cosas lo más parecido a un entorno de producción lo que se suele necesitar son máquinas virtuales (VPS) que tengan características similares aunque no el rendimiento adecuado; es decir, la misma máquina con menos CPU y RAM. El hecho de que tecnológicamente un sistema tenga menos recursos también tiene una ventaja: si funciona en pequeño, debería funcionar en grande. De la misma manera, al contrario, si no funciona en pequeño, aunque funcione en grande, es probable que no escale.

Es por esto que me gustan mucho las máquinas VPS baratas que se encuentran por ahí. Probablemente no sean las mejores máquinas pero son tan baratas que te ayudan a poderte hacer una idea de cómo funcionaría tu producto alrededor del mundo.

Para este artículo voy a plantearme hacer una comparativa basada en una relación 1 CPU + 1 GB de RAM, y a partir de ahí, “lo que surja”. El objetivo es encontrar máquinas baratas, con un mínimo de RAM y procesador y que tengan cierto rendimiento.

La tabla que presento ahora es una lista de algunos sitios web donde contratar, con algunas características simplemente por comparar de forma rápida.

SitioCPURAM (GB)Disco (GB)TráficoConexiónVirtualizaciónPrecio/mes
1and11150 SSDilimitado100 MbpsVMWare4.99 USD
A2 hosting1120 SSD2 TBOpenVZ7.63 EUR
Atlantic1140 SSD3 TBKVM10.00 USD
bandwagonhost2120 SSD1 TB1 GbpsOpenVZ / KVM4.99 USD
brightbox1130 SSDKVM15.00 GBP
budgetvm1175 SSD3 TB100 MbpsOpenVZ4.99 USD
digitalocean1130 SSD2 TBKVM10.00 USD
hetzner1125 SSD2 TB1 GbpsKVM3.90 EUR
linode1120 SSD1 TB1 GbpsKVM5.00 USD
ovh1210 SSDilimitado100 MbpsKVM3.49 USD
ramnode1140 SSD1 TBOpenVZ3.50 USD
ramnode2120 SSD2 TBKVM5.00 USD
scaleway2250 SSDilimitado200 MbpsKVM2.99 EUR
scaleway4850 SSDilimitado300 Mbpsninguna11.99 EUR
stablehost1140 SSD2 TB1 GbpsOpenVZ / KVM9.95 USD
upcloud1130 MaxIOPS2 TB10.00 USD
vpsdime4 compart.630 SSD2 TB10 GbpsOpenVZ7.00 USD
vpsdime1 dedic.460 SSD2 TB10 GbpsKVM20.00 USD
vps.net4125 SSD3 TBXen10.00 USD
vultr1125 SSD1 TBKVM5.00 USD

NOTA: Los precios pueden ser aproximados, pero son los que había en la web en el momento en el que se hizo la tabla.

Espero que esta lista de sitios donde encontrar alojamiento barato para hacer pruebas sea útil, y que además sirva para descubrir otros posibles alojamientos para tus proyectos.

Base de Datos de Códigos Postales de España

Se supone que Correos es una empresa con participación pública (y viene de ser una empresa completamente pública) pero eso parece que no ayuda a que sus datos sean considerables como abiertos. Esto hace que algo tan absurdo como la base de datos de Códigos Postales y calles no esté disponible de forma simple abierta y gratuita, como debería. Es por esto que hace unos años hice un primer acercamiento a tener una base de datos de códigos postales, aunque aquella vez fue hecha de forma manual.

En esta ocasión he estado rebuscando por la red de redes y gracias a varias fuentes de datos que tenían información suelta, y también gracias al portal de datos.gob.es donde hay algunos elementos del INE, he conseguido hacer un megamix de información y poder crear una base de datos en SQL relacional de provincias, poblaciones (municipios) y códigos postales.

El portal lo he lanzado en postal.cat y aunque la web está en catalán, el contenido está en las lenguas oficiales, ya que las poblaciones han de estar así. Allí encontrarás los ficheros en formato CSV, Excel y SQL, dependiendo de lo que quieras hacer.

Además, es probable que haya una siguiente actualización en la que se incluya el callejero, de forma que en las grandes ciudades donde hay más d eun código portal por municipio, se podría buscar la calle y así saber cuál es el código portal correcto que tiene. De todas formas, esto es algo que ya llegará.

La odisea de tener datos móviles fuera de Europa

Viajar a Estados Unidos es algo de conocido por muchos que me gusta hacer de tanto en tanto, principalmente a Miami donde tuve la oportunidad de vivir medio año y que me abrió los ojos en muchos sentidos. En aquella época directamente me pillé una línea de (creo recordar) T-Mobile por lo que tenía mi número de US. En mis siguientes visitas ha sido bastante fracaso el asunto, ya que he intentado comprar algún SIM allí mismo, de prepago, pero o porque mi teléfono no lo soportaba o por cualquier razón no acababa de funcionar.

Con el paso del tiempo esto ha cambiado y existen muchas empresas que han lanzado sus sistemas de SIM prepago enfocadas a datos, y voy a comentar algunas de ellas, siempre desde el planteamiento de alguien que vive en la UE y se va a US, y con una cifra de datos de 1 GB (que creo que es bastante aceptable para 1 semana fuera de la eurozona).

Primeras opciones:

  • Flexiroam: Tienen un SIM que compras por 30 dólares e incluye 1 GB de datos, que has de consumir en 3 meses. A partir de ahí puedes recargar otro giga por 30 dólares que te durará otros 90 días.
  • WorldSIM: Aunque su foco es el de pago-por-uso, tienen un paquete para América (US y PR) que te da 1 GB durante 30 días por 54 dólares.
  • GO-SIM: Este pack para Estados Unidos te ofrece 1 GB durante 30 días por 49 dólares.
  • GigSky: Por 50 dólares durante 30 días tienes 1 GB de datos.

Más opciones:

  • T-Mobile Tourist plan: Es una opción interesante en la que durante 21 días tienes un SIM funciona para todo (llamadas, sms, datos…). Incluye 2 GB de datos, 1000 minutos a US por unos 30 dólares. A las 3 semanas el SIM “se autodestruye”.

La decisión:

Finalmente mi decisión ha sido la de utilizar el servicio de AlwaysOnlineWireless. Para comenzar compras el SIM (con envío incluido) por 15 dólares. Una vez lo tienes, lo activas y eliges uno de los planes que quieras utilizar, que siguiendo con la línea que llevaba, sería el de 1 GB durante 15 días por 8 dólares (o 3 GB por 23 dólares). No sé si será el mejor servicio, pero es el que cuadra más con mis necesidades, una SIM extra (mi teléfono tiene 2 slot de nanoSIM, así que me va perfecto) que usar cuando lo necesitas y por muy bajo precio.

¿Qué ofrecen las operadoras españolas?

Toda esta búsqueda se ha basado en una decisión de que la operadora que uso, Movistar, tiene unas tarifas bastante malas en cuestión de roaming por Estados Unidos, ya que te da 10 MB al día por 2,5 euros, algo que considero fuera de lo que debería, teniendo en cuenta que por ejemplo Vodafone trata US como Europa, tanto en voz como en datos. Orange, en este caso te da 100 MB por 5 euros/día.

Herramientas para Open Data

Ayer tuve la oportunidad de asistir a una charla de Marc Torres (del Institut Cartogràfic i Geològic de Catalunya) en el que hizo un pequeño taller explicando algunas fuentes de datos y sobre todo herramientas para tratarlos.

Los que me conocéis un poco sabéis que me encanta jugar con APIs y por tanto con datos, y esta charla era un lugar plerfecto para aprender de alguna herramienta que desconociera; obviamente el objetivo estuvo más que superado.

Para comenzar, voy a dejar una serie de sitios desde los cuáles conseguir extraer datos abiertos. Algunos son conocidos y otros no tanto:

Aunque hay cientos de lugares en España (y el resto del mundo) de donde sacar datos, estas fueron las fuentes que usamos en el taller, y la verdad es que hay información muy interesante sobre nuestro entorno y que permiten hacer muchísimas cosas.

Pero quizá lo más interesante para mi (y seuramente para vosotros) son algunas de las herramientas que se trataon y explicaron. Voy a intentar hacer un pequeño resumen de ellas:

  • Tabula is a tool for liberating data tables locked inside PDF files.
    Como bien dice su explicación, esta herramienta lo que permite es subir un fichero PDF, seleccionar un contenido o zona y te lo convierte a datos estructurados (más o menos es 100% fiable, pero depende del PDF).
  • OpenRefine (formerly Google Refine) is a powerful tool for working with messy data: cleaning it; transforming it from one format into another; and extending it with web services and external data.
    Esta herramienta, que como se indica anteriormente era un producto Google, permite subit datos estructurados y filtrarlos y generar un subset más refinado de elementos. Creo que se va a convertir en una de mis herramientas de referencia a partir de ahora.
  • InstaMaps, fes un mapa amb les teves dades fàcilment.
    Con esta herramienta se pueden crear mapas usando como fuente datos abiertos (entre otras cosas). Es una herramienta similar a Google MyMaps o a BatchGeo.
  • import.io: Extract data from almost any website
    Esta herramienta ya la conocía, me parece útil pero creo que sólo para cosas pequeñas, porque si necesitas hacer algo grande se queda corta (la parte gratis, y la de pago me parece cara).
  • Overview Search, visualize, and review your documents. Up to hundreds of thousands of them, in any format.
    Esta es seguramente la herramienta que menos utilizaría, pero es muy interesante para extraer datos de documentos, ya sean metadatos como un extracto de conceptos y temas en los que se hablan en él.
  • vizydrop Data visualization software
    me parece una herramienta increíble para generar gráficos a partir de datos estructurados. Incluso se hizo un ejemplo de datos geográficos que acabana haciendo una especie de mapa virtual de la ciudad de barcelona en los que añadiendo volúmenes en los pntos generaba un para interactivo muy interesante.

Y para acabar, como bonus track del que seguro que con tiempo saco muchas herramientas interesantes, es el Keshif (Data made explorable), una galería de herramientas y datos que te pueden ayudar a encontrar lo que necesitas para visualizar tus datos de la mejor forma. Hay centenares de herramientas y te puedes perder horas viendo ejemplos y galerías.

Reseña sobre el Pinebook

Hace unos días que cayó (vamos, me lo compré) en mis manos un Pinebook, ese pequeño ordenador basado en PINE64 que por 100 dólares te ofrece una máquina bastante razonables. Y digo bastante porque obviamente no es una máquina excepcional, aunque sí por su relación calidad/precio.

Este dispositivo está basado en hardware open source, y vienen con una CPU Quad-Core ARM Cortex A53 64-Bit, junto a 2 GB de memoria RAM y una pantalla de 11 o 14 pulgadas, en mi caso esta última. Un detalle curioso es que el dispositivo sólo tiene 30 días de garantía y que viene con la batería completamente vacía, lo que significa que antes de poderte poner a jugar tendrás que cargarla, algo que al menos la primera vez no fue extremadamente rápido que digamos (tranquilamente estuvo 6 horas…).

A nivel de memoria de disco se nota que los 16GB son pocos, porque ya de buenas a primeras te encuentras prácticamente sin tan siquiera poder actualizar el Linux (Ubuntu Mate) que viene de serie. Además viene en un pequeño maletín de plástico que se agradece, al menos para no tenerlo en casa “encima de cosas”.

Una cosa curiosa que me ha pasado es que si echas la pantalla para atrás al máximo, pesa más la pantalla que el teclado y se llega a levantar ligeramente (ni un dedo). No pasa nada porque las gomas que lo sujetan a la base están muy bien, pero es bastante curioso (vamos, le pesa la cabeza). Otro detalle importante es que el teclado que lleva es inglés estadounidense, por lo que es probable que las teclas (si cambias el idioma a español) no estén en su sitio -en general no es muy problemático-.

El dispositivo no es una máquina como para ponerse a hacer CAD, pero funciona correctamente. Lo primero que me planteé era si instalarle Android 7.1 o dejarle el Linux, y tras varios pensamientos creo que es un dispositivo Linux más que Android (aunque intuyo que funcionará perfectamente y que algún día puede que haga el cambio por probar, y que incluso se quedará con él puesto).

La batería es de 10.000 mAH, lo que de saque da pie a pensar que va a durar bastante, y aún sin haber descargado la batería por completo, tranquilamente podría estar cerca de las 6 horas, ya que consume muy poco. Obviamente esto dependerá del uso que se le de, que no es lo mismo tenerlo con vídeos que con un editor de texto.

A nivel de velocidad, potencia o como queráis llamarlo, no es el ordenador más rápido del mundo… todo lo contrario, cuando abres una aplicación que requiere unos pocos recursos, automáticamente se queda un poco tonto y se nota que no es todo lo que puedes esperar de un portátil “normal y corriente”. Eso no quita que para aplicaciones como LibreOffice o Firefox no funcione bien, que lo hace, lo que lo convierte en un buen ordenador para los más pequeños. Además, viene de serie con Scratch, para que comiencen a aprender a programar (y qué menos en una máquina preparada para ello).

A nivel de conectividad viene con Bluetooth y WiFi, esta última muy correcta y que no ha dado problemas en ningún momento. A nivel físico es una máquina de plástico, como es de esperar. Se calienta un poco en la zona donde está principalmente el procesador, pero tampoco de una forma exagerada.

Seguramente la utilidad que le voy a dar es la de meterle un LAMP y tenerlo como máquina local para poder jugar con proyectos o cosas que necesite tener en local. Seguramente no es para lo que está pensado, pero al menos seguro que lo usaré con frecuencia.

A partir de aquí poco más a decir; si quieres una máquina sencilla, no muy potente pero muy aceptable para trabajos de navegación o de edición de texto, y sobre todo para los más pequeños, es la máquina ideal, barata y útil.

Desinstalar paquetes problemáticos de un Synology

Desde hace varios años que trabajo en casa con un par de Synology DiskStation DS216se. Es una buena manera de tener backups en casa con un gran panel de gestión y de forma sencilla. Seguramente ahora tomaría la decisión de hacer algunos cambios (y probablemente los haga) como añadirle discos SSD que he tenido la posibilidad de comprobar con clientes y amigos, pero es lo que hay.

Uno de los problemas que me he encontrado en uno de los que tengo es la imposibilidad de desinstalar un paquete desde el propio panel. El problema estaba (seguramente) en que en una primera desinstalación algo falló y se quedó colgado y a medias. Al intentar desinstalarlo me decís que no podía acceder al MariaDB, pero si accedía por CLI ya no existían las bases de datos ni nada. Estaba corrupto el sistema.

Tras probar y probar finalmente decidí que la mejor solución era desinstalar los paquetes manualmente por bash, así que activé el SSH y me metí en el sistema. Para esto, lo primero que hay que tener es acceso SSH, que está en el Panel de Control -> Terminal y SNMP. Allí se activa la opción SSH y se aplican los filtros del Firewall. Si dejáis el puerto 22 por defecto la cosa será muy compatible con todo.

Una vez esté activado el SSH, lo siguiente es entrar por un terminal (tipo el Putty), entrar en vuestra IP por el puerto 22, con vuestro usuario (y teniendo permisos de root, que os hará falta).

Lo siguiente es ir a estas carpetas y erradicar todo su contenido:

  • cd /volume1/@appstore
  • sudo rm -rf nombredelpaqueteaeliminar
  • cd /var/packages
  • sudo rm -rf nombredelpaqueteaeliminar
  • cd /usr/local
  • sudo rm -rf nombredelpaqueteaeliminar

Una vez hecho esto, podéis volver al panel del Synology, entrar en la zona de paquetes y ya os habrá desaparecido el paquete por completo.

Community Managers ¿son rentables?

¡Hola amigo! Hoy te voy a demostrar si esa moda tuya de tener a alguien cobrando por hacer de Community Managers es rentable o no. Y es que en lo que respecta a Internet, todo se puede medir.

Sé que con este artículo puedo ganarme muchos enemigos, y la verdad es que el origen de lo que voy a explicar aquí no venía por la pregunta de sí es o no rentable alguien que gestiona las redes sociales sino que venía por la posibilidad de medir o de tener cierta inteligencia en Google Analytics con respecto a las redes sociales (en primera instancia, Twitter).

El pasado viernes en la clase del Postgrado Web Analytics comenzamos a medir la información de las fuentes de tráfico. Uno de estos informes es el de los referral y en él encontramos, por norma general, el tráfico que llega desde Twitter, Facebook y demás. En principio estos datos deberían ser fiables (luego os comentaré cómo mejorar esa fiabilidad) y partiendo de estos datos salieron dudas.

Si entramos en Google Analytics, seleccionamos un sitio web, y nos vamos al menú a Fuentes de Tráfico -> Fuentes -> Referencias tendremos un bonito listado de fuentes, entre la cuales suele aparecer [t.co] y [facebook.com]. Como decía antes, voy a focalizarme en Twitter y su acortador [T.CO], que es la forma de poder medirlo. Así que si entramos en esta fuente obtendremos una lista de las Rutas de Referencia (aká, la URL) que se han pulsado en el acortador.

Estos datos son de varios meses y podemos ver cómo algunos de los enlaces han conseguido bastante relevancia hasta conseguir más de 4.000 visitas. Además también podemos ver que hay más de 13.000 enlaces distintos del acortador de Twitter, lo que supone, en principio, un trabajo bastante elevado de gestión.

Un Community Manager ahora te diría que es una persona extraordinaria porque te ha generado más de 300.000 visitas desde Twitter en unos pocos meses… pero no es cierto, ya que estos enlaces pueden haberse generado gracias al botón de compartir o similares… así que, primer punto: ¿cómo puedo medir el trabajo propio de esta persona? La respuesta es relativamente sencilla, y es un pequeño truco que podemos aprovechar de Google Analytics: el parámetro utm_content. Según la ayuda, significa lo siguiente:

Campo utilizado para las pruebas del contenido A/B y los anuncios orientados a la Red de Display. Utilice utm_content para diferenciar los anuncios o enlaces que llevan a la misma URL.

Aunque esto implica algo más de trabajo, podríamos montarnos un sistema sencillo que permita controlar las páginas de destino de los tweets generados. Para ello, cuando añadamos uno, deberíamos hacer algo tal que así:

Tweet Original:

Acabo de escribir un tweet sobre los Community Managers http://javiercasares.com/blog/rentabilidad-community-manager/

Tweet Mejorado:

Acabo de escribir un tweet sobre los Community Managers http://javiercasares.com/blog/rentabilidad-community-manager/?utm_content=201305061000+Community+Managers&utm_source=twitter.com

La diferencia entre uno y otro es que el segundo incorpora dos parámetros en la URL:

  • utm_content = 201305061000+Community+Managers: Con esto podemos incluir una fecha y hora (año mes dia hora minuto) seguido de un texto que identifique el enlace del tweet.
  • utm_source = twitter.com: COn esto podemos sobre escribir la fuente original del tweet, dejando de lado el acortador de twitter [t.co] y sustituyendo esa información por el propio twitter [twitter.com]

Con este sistema, entonces, podrás diferencias tus entradas de las que se hagan por otros métodos. Además, si se hace un informe (ahora en el que la fuente es [twitter.com] y no [t.co]) en el que indicamos la página de destino y le incluimos una dimensión secundaria con el Contenido del anuncio (que es el valor del parámetro utm_content) tendremos información exacta del trabajo que ha realizado concretamente nuestro Community Manager, incluyendo, y esto es importante, únicamente sus tweets y el ruido que haya generado (con sus retweets, o sus citas).

Vale, este es uno de los puntos que quería tratar, pero con esto simplemente tenemos información de lo que hacen, pero no de la rentabilidad que tienen. Por norma general muchos de los sitios web tienen Google Adsense, y una de las cosas interesantes es que como se puede relacionar Google Adsense con Google Analytics tenemos un detalle interesante: saber cuánto dinero generan los tweets.

Para ello en los mismos informes en los que estábamos sólo debemos activar la opción Adsense y veremos los ingresos. Particularmente no me convence esta opción porque no se pueden relacionar datos, así que lo mejor es crearse un informe personalizado en el que se incluyan, principalmente, datos como las visitas, páginas vistas, tasa de rebote e ingresos…

Para que os hagáis una idea, según el propio Google Analytics, los ingresos en publicidad de Adsense generados desde Twitter en los últimos meses han sido de poco más de 90 dólares (unos 80 euros). Vale, ahora podéis decirme que también hay publicidad (lo que significa que podemos sacar una media de ingresos por CPM) y que si hemos tenido en varios meses más de 400.000 páginas vistas, a una media de, por ejemplo, 1 euro de CPM, habríamos generado unos 400 euros. Vale, 400 euros de Display + 80 euros de Adsense: 480 euros en un término de varios meses. No da para pagar ni a un becario.

En fin, todo es medible, las redes sociales también, y ello implica que las modas pasajeras pueden ser muy peligrosas.

Los DNAME en las DNS

Aunque ahora mismo es tan sólo una propuesta, creo muy acertada esta nueva posible entrada de las DNS porque, sobretodo a nivel de rendimiento de WPO podría dar un salto cualitativo en cuanto a determinadas acciones que hacemos habitualmente con los dominios, más concretamente con las redirecciones. Incluso, he de añadir, para reducir el impacto de la cantidad de líneas que puede haber en los servidores DNS.

Para situarnos estoy hablando de la propuesta del RFC 6672 (DNAME Redirection in the DNS) que propone incorporar una entrada nueva llamada DNAME.

Para no entrar en detalles muy raros, voy a intentar poner un caso para ver el sentido que tiene. Imaginad que tenemos dos dominios iguales, con las mismas entradas DNS. Por ejemplo [example.com] y [dominio.es]. Dado este caso, en que los dos dominios son exactamente iguales (a nivel DNS)… ¿tiene sentido mantener dos copias de las entradas DNS? ¿No sería más fácil decir que las entradas DNS de [dominio.es] son una copia de las de [example.com] y simplemente cambiando las del .com que se actualizase todo?

Pues básicamente este es el objetivo de la entrada DNAME. El ejemplo visual (los que tocáis mucho las DNS seguramente lo pilléis enseguida:

    QNAME            owner  DNAME   target         result
    ---------------- -------------- -------------- -----------------
    com.             example.com.   example.net.   <no match>
    example.com.     example.com.   example.net.   [0]
    a.example.com.   example.com.   example.net.   a.example.net.
    a.b.example.com. example.com.   example.net.   a.b.example.net.
    ab.example.com.  b.example.com. example.net.   <no match>
    foo.example.com. example.com.   example.net.   foo.example.net.
    a.x.example.com. x.example.com. example.net.   a.example.net.
    a.example.com.   example.com.   y.example.net. a.y.example.net.
    cyc.example.com. example.com.   example.com.   cyc.example.com.
    cyc.example.com. example.com.   c.example.com. cyc.c.example.com.
    shortloop.x.x.   x.             .              shortloop.x.
    shortloop.x.     x.             .              shortloop.

El objetivo es que el campo “target” sea como el sustituto del patrón que se le pasa. De esta forma, poniendo la tercera línea de ejemplo, tendríamos que, partiendo de la base de [a.example.com] el dominio sería [example.com] y el DNAME sería [example.net], si hacemos un “sustituir” de [example.net] por [example.com] nos quedaría [a.example.net].

El planteamiento, a nivel de similitud, es como un CNAME con esteroides, ya que no deja de ser como un alias, pero que además sustituye fragmentos de las entradas DNS por otras que pueden ser de otro dominio.

Un detalle interesante es que, aunque no se recomienda su uso, se podría a llegar a utilizar el “wildcard” (o sea, el [*.example.com] para sustituir grandes cantidades de entradas DNS por otras. No se recomienda el uso porque podría invalidar el DNSSEC, pero la verdad, teniendo en cuenta la poca penetración que tiene, tampoco tengo claro que, para la mayoría, sea un problema.

Aunque no deja de ser una propuesta (en mi opinión muy interesante) no tengo claro que sea algo que se vaya a implementar rápidamente. Seguramente dependerá más de los ISP que comiencen a implementar servidores que lo soporten, pero, tampoco es algo que creo que sea muy recomendable para la gran mayoría de los usuarios, ya que un pequeño error puede provocar la invalidación de las DNS. Así que, lo más probable es que para añadir una entrada de este tipo se tengan que hacer varias validaciones “automáticas” para controlar las posibles cagadas poniendo estas entradas.

Dominios reservados

¿Cuál es el dominio que no existe y que deberíamos usar siempre que hacemos referencia a una dirección URI que no existe? Pues hay varios, no os lo voy a negar, y todo depende de las necesidades que tengamos.

Y es que existe el RFC 2606 que habla de esto mismo… los Reserved Top Level DNS Names. Básicamente este documento nos informa de los 4 TLD que hay cuando queremos hacer referencia a pruebas.

  • .test: Se recomienda para probar DNS.
  • .example: Se recomienda cuando en un documento se hace referencia a alguna dirección.
  • .invalid: Se recomienda cuando se hace referencia a dominios incorrectos o errores.
  • .localhost: Este es el único que técnicamente no es del todo un error o un ejemplo, ya que se puede utilizar internamente en las DNS para hacer una autollamada o hacer uso de direcciones IP privadas sobre él.

Claro está, esto es siempre para los TLD, pero ¿qué ocurre en los segundos nivele? Vamos, en lo que normalmente conocemos como un “dominio”? Para ello el sistema es claro: example.com, example.net y example.org.

Hay otros TLD de los nuevos que, ya de base, llevan una serie de limitaciones. Por ejemplo el .INFO define el dominio [example.info] como un dominio .info reservado en este caso para la IANA. Esto mismo ocurre con los dominios .biz reservados que excluyen el [example.biz]. En principio, el resto de dominios, como desde hace tiempo, son asignados y aprobados por IANA, ocurre lo mismo.

En el caso de los ccTLD no se especifica nada a nivel general, sino que el bloqueo de los dominios queda en manos de cada uno de los organismos. Por ejemplo, en NIC.ES, el organismo que regula los dominios “.es”, quedan prohibido según su documentación el [dominio.es]. Hay otros tantos, pero este parece ser el único que el organismo no usará (ya que aunque está prohibido, el [dominio.es] sí que lo utilizan como promoción, saltándose sus propias reglas (como decenas de veces han hecho en e pasado).

En otros casos, como por ejemplo el dominio francés .FR (y todos los que gestiona el organismo) no plantea un dominio de segundo nivel reservado para este uso. Sí que es cierto que disponen de varios dominios reservados, pero concretamente para hacerse eco de un ejemplo de uso no.

Así que a partir de ahora, si vas a escribir una entrada hablando de dominios de ejemplo, o tienes que referirte a ellos, ya sabes que has de analizar de forma diferente lo general de los dominios territoriales.

Mis plugins para Firefox

De tanto en tanto se hace recurrente en mi vida una pregunta que me hacen: ¿Y tú que navegador usas? La respuesta es sencilla: Firefox. Y es que uso Firefox desde prácticamente cuando aún era Netscape Navigator. Y luego, viene la siguiente pregunta: ¿Y por qué Firefox? Pues básicamente por las ampliaciones que lleva. Y entonces comienzan las discusiones con los amantes de Chrome. En ese momento, casi antes de comenzar, simplemente me voy.

El hecho de usar Firefox (incluso os puedo decir que desde hace unas semanas ya me he lanzado a la piscina porque usaba primero las betas, luego Aurora y ahora Nightly de 64 bits -lo que significa que en este momento estoy con una alpha de Firefox 21-) viene dado principalmente por su lista de “plugins” (o addons).

¿Y cuáles son esas ampliaciones que utilizo? Pues es la siguiente:

  • Adblock Plus: Simplemente para no ver publicidad. Que conste que no siempre lo tengo activado, pero para desarrollar va bastante bien.
  • Advertising Cookie Opt-out: Pasando de las cookies de Adsense y Doubleclick.
  • Beef Taco: pasando de las cookies de otra decena de sitios de publicidad y de basurilla.
  • Classic Retweet: Lo siento, pero añoro el primer Twitter…
  • ColorZilla: Permite seleccionar cualquier color de una web. No lo uso mucho, que conste.
  • DNS Flusher: Cuando trabajas con muchas máquinas en desarrollo, preproducción y producción se vuelve algo básico la limpieza de las DNS.
  • Firebug: Herramienta básica del desarrollador.
  • Flash Video Downloader: Útil en algunas ocasiones. No lo suelo usar casi nunca.
  • Ghostery: Informa de todos los “spyware” que intentan colarte las webs…
  • HTTPS Everywhere: El nombre ya lo indica todo.
  • Live HTTP Headers: Un clásico para ver las cabeceras. Básico para el WPO.
  • Long URL Please: Muestra las URL de acortadores en su versión completa.
  • MeasureIt: Para medir anchos y altos de elementos web.
  • LessChrome HD: Oculta el menú. Pensando en saltar al LessChrome Modified.
  • Page Speed: Otro de los complementos básicos del WPO.
  • PDF Viewer: Muestra los PDF integrados en el navegador, sin el plugin de Adobe.
  • Pearl Crescent Page Saver Basic: Capturador de pantalla o de toda la página.
  • Pocket: Si usas Pocket, es necesario tenerlo también en el navegador bien integrado.
  • Web Developer: La barra básica en mi vida… si veo un Firefox sin ella, la instalo, porque lo digo yo.
  • YSlow: Otra de las herramientas clave en el WPO.

Tengo una lista de plugins pendientes de usar y/o de decidir si se quedan o no se quedan en mi lista de establecidos…

  • Cache Status: permite gestionar la caché de forma rápida (algo también de uso habitual en mi caso).
  • Modify Headers: A veces no sólo es necesario “ver” cabeceras, sino que hay que “tocarlas”.
  • Poster: Otro más que tiene que ver con las cabeceras. Lo veo muy completo, pero no sé si es lo que necesito, aún.

Vuelvo a decir, ya sé que Chrome y Opera tienen muchos plugins y muchas cosas… pero me gusta el zorro, ¡qué le vamos a hacer!

Ninja Team

Cuando desde Keep It Simple Lab nos llega un correo porque alguien quiere que le ayudemos con temas de SEO y WPO cada vez se esta haciendo más frecuente la pregunta de qué software se está utilizando y dónde (en casa o externalizado) está el equipo de desarrollo. Y depende mucho de esta respuesta que queramos trabajar con esa persona o empresa. ¿Por qué? La respuesta es muy sencilla: no queremos trabajar con gente inútil. Y no me entendáis mal, no quiero decir que la gente sea tonta o similar, sino que no es útil. Tanto en temas de SEO y aún más en temas de WPO es muy importante hacer las cosas exactamente como se piden. Por eso somos buenos, porque sabemos con exactitud lo que hay que hacer, pero sobretodo si se puede o no hacer. Y aquí es donde entran los “problemas”.

Pero antes de seguir me gustaría introducir varios conceptos:

  • Ninja: Los ninjas eran un grupo militar de mercenarios entrenados especialmente en formas no ortodoxas de hacer la guerra, en las que se incluía el asesinato, espionaje, sabotaje, reconocimiento y guerra de guerrillas, con el afán de desestabilizar al ejército enemigo, obtener información vital de la posición de sus tropas o lograr una ventaja importante que pudiera ser decisiva en el campo de batalla.
  • Código Spaghetti: El código spaghetti es un término peyorativo para los programas de computación que tienen una estructura de control de flujo compleja e incomprensible. Su nombre deriva del hecho que este tipo de código parece asemejarse a un plato de espaguetis, es decir, un montón de hilos intrincados y anudados.
  • Framework: Un framework para aplicaciones web es un framework diseñado para apoyar el desarrollo de sitios web dinámicos, aplicaciones web y servicios web. Este tipo de frameworks intenta aliviar el exceso de carga asociado con actividades comunes usadas en desarrollos web.

Ahora que ya sabemos lo que es un ninja, un framework y el spaghetti-code podéis haceros una idea de por dónde quiero ir. Y es que estoy muy cansado de los frameworks. Son una putas cajas negras que las cosas más sencillas de hacer en spaghetti se vuelven muy complejas. Como digo esto lo explico desde la propia experiencia, porque dos de los últimos proyectos que nos hemos encontrado hechos en Symfony o se han ido al retrete o se tienen que rehacer, y ya no os cuento cosas hechas en CodeIgniter. También he sufrido mierdas hechas con Zend que han acabado en la Papelera de Reciclaje.

Y que conste que no estoy en contra de los frameworks, estoy en contra de los programadores que no saben qué hace un framework ni cómo solventar problemas que generan. Y aunque no estoy en contra de ellos, sí que estoy en contra de los que usan uno y no saben bien bien qué configuración genera por defecto. Por ejemplo, hace unos días nos encontramos un marrón con Symfony en el que devolvía unas cabeceras HTTP/1.0 (tecnología de Internet que hace más de 10 años tiene una versión 1.1) y por otro lado unas configuraciones multiidiomas que sí, que están estandarizadas en el RFC2616 pero que cuando la “gente” te pide SEO es para tirar a la basura el proyecto porque vuelves loco a los buscadores.

Y esto me lleva al tema de la eficiencia. Está bien hacer las cosas, pero es mejor hacer las cosas perfectas. Y si a eso le sumamos la simplicidad, tenemos lo que hacemos en Kisslab. De ahí tener un equipo ninja, equipo en el que, a la hora de desarrollar, me incluyo. Y es que hay que ser resolutivos. Frente a una situación desagradable hay que poner un poco de cabeza, buscar la manera más simple de solventarla y solventarla, y, por experiencia, lo mejor en un sitio web es el spaghetti-ninja, un monstruo que llega y arraza por donde paza.

Sé que lo que voy a decir puede sonar muy nazi, pero a los programadores, por norma general, no hay que dejarlos pensar, hay que dejarlos programar. Para pensar ya hay otras cabezas que son las que en determinados proyectos tienen un medio-largo plazo y a veces piden a los programadores cosas con cierta visión. Esto no significa que un programador sólo tenga que picar teclas, porque hay otros proyectos donde se puede hacer pajas mentales y que salga lo que salga… eso sí, luego suelen llegar llorando porque el SEO y WPO no acaban de irles bien. Suelen usar tecnologías que sólo usan ellos (y que por supuesto no saben escalar cuando eso se va de madre), las últimas versiones de sus lenguajes de programación favoritos (y porque son conscientes de que las versiones alpha pueden fallar, que sino te las cuelan) y lo mismo con usar bases de datos no-relacionales. Es todo muy bonito en su cabeza, pero en la realidad de Internet eso no funciona.

Y en este sentido puedo decir que tengo un equipo que no me lo merezco. Seguramente Jaume puede opinar mucho más que ha tenido entre manos a decenas de personas de estos ámbitos y en vista a los proyectos (propios) que tenemos he de decir que a veces me dan ganas de mandar de vacaciones a parte del equipo porque cuando tienen claro lo que hay que hacer, lo hacen rápido y bien, y eso no tiene precio.

Bueno, ahora ya podéis venir a abroncarme, aunque no vais a conseguir hacer cambiarme de opinión.

Google, publicidad y adservers

Ayer fue un día dramático en Grupo ITnet (como en muchos otros sitios de la Internet española) ya que tuvimos un problema porque a Google se le antojó que la mitad de las webs estaban infectadas (como los programadores errantes).

La situación es la siguiente: te llaman a las 8 de la mañana diciendo que una de las webs, cuando entras, aparece un mensaje en rojo diciendo que la web es peligrosa. Primera acción: comprobarlo (que me lo creo, pero quiero que mis ojos lo vean). Segunda acción: entrar en Google Webmaster Tools y comprobar que no era el único sitio en el que ocurría esto. Entre los sitios estaba también JocJuegos sitio que desde hace unas semanas vuelvo a gestionar parcialmente yo.

La situación era que al entrar en la sección de Salud del panel me salía una alerta diciendo que el “malware” se encontraba en nuestro adserver (en este caso SmartAdserver). Primera solución rápida: eliminar la publicidad del sitio y solicitar una reinclusión. ¡Muerto el perro, se acabó la rabia!

El resto de día fue bastante estresante. Lo primero que hice al llegar a la oficina fue hablar con la gente de SmartAdserver, que no acababan de entender nada, por lo que les puse en antecedentes y les mandé cierta información sobre lo que era. Como era de esperar “no era culpa suya” (ni yo les estaba diciendo que lo fuera) pero al verse afectado su dominio hacía que afectasen a muchas de las páginas que usaban su publicidad.

El resto del día fue muy burocrático y a la vez muy estresante, ya que al fin y al cabo las páginas que tienen esos códigos de publicidad en general viven de eso, de la publicidad, por lo que si la web no funcionaba (porque al entrar en ellas saltaba el mensaje de sitio peligroso) o estaban sin anuncios, a final de mes no comemos.

Ayer acabó siendo un día de esos que “molan” por la parte de tener un subidón de adrenalina por ir contra reloj en casi todo, y de los días más estresantes que he tenido en los últimos años.

Esta mañana revisando el correo la gente de SmartAdserver y tras hablar con Google, han confirmado lo que yo ya sabía: que había alguna campaña de publicidad que estaba infectada (por lo que parece ha sido una empresa española bastante importante y conocida) y que no era culpa suya, pero como afectaba a su dominio se han visto salpicados por el asunto. Por su parte dicen que van a tomar medidas y van a aplicar un protocolo por si se diera de nuevo el caso.

Por mi parte también he creado un protocolo de actuación principalmente dentro de las empresas que hay en la oficina y que supongo que acabarán extendiéndose a otros proyectos y sitios… Comenzando por aislar el dominio del adserver y teniendo un plan B en caso de que algo similar ocurra de nuevo, que permita corregir la situación en un tiempo menor (de 2-4 horas y no de cerca de 12-24).

La cuestión que me queda es que Google está llegando a unos extremos un poco extraños, ya que la cadena de perjudicados en este asunto es demasiado amplia, la forma de penalizar los sitios muy rápida y la solución muy compleja. Entiendo que hagan eso de pedir perdón antes que pedir permiso, pero podrían dar al menos unas horas de margen para poder corregir los problemas y no tomar decisiones unilaterales (ya que su aviso acabó en un montón de sitios de información de malware y todos los sitios afectados están perdiendo cierta cantidad de tráfico que será complicado recuperar a corto plazo).

Desarrolladores vs. Administradores de Sistemas

Como algunos ya sabéis yo de formación soy Administrador de Sistemas, aunque en general estos últimos 10 años me he dedicado principalmente a desarrollar. Pero estos últimos meses (principalmente desde principios de año) estoy dedicando la mayor parte del tiempo a dirigir y organizar proyectos y, sobre todo, a ejercer de SysAdmin. Como decía, había tenido ya experiencia en combinar ambas historias, pero en general la parte de sistemas siempre venía respaldada por alguien y yo “intentaba mirar” en vez de trabajar.

Ahora eso ha cambiado y me ha llevado a plantearme estos dos estilos de vida conjuntamente y por separado. Y es que he de decir que, aunque sea un trabajo algo más duro el de Administrador de Sistemas, no cabe duda que en general la satisfacción personal es mucho mayor.

La cuestión es que en el día a día, el desarrollador suele encontrarse puntos de dificultad pero que creo que son relativa. Una cosa clara, hablo de desarrollador y no de maquetador, que es otra historia (esto sí que hace ya un par de años que intento no tocar ni una línea de código). Volviendo al tema, desarrollar, hoy en día es muy sencillo. Que conste que yo sigo programando con el Notepad++ y sin frameworks ni mierdas varias de esas. Podemos discutirlo, por ahora siempre he ganado yo; los frameworks se supone que te han de aliviar el trabajo pero, cuando luego voy a pedirles algo a los desarrolladores que hagan un cambio se vislumbra el drama porque “eso lo hace el framework así y tocarlo es complicado”. No, no es complicado, simplemente sobrecargas la función, o creas una función nueva y se acabó, porque si te digo que eso ha de ser así (por SEO, por WPO, por eficiencia o por lo que sea, es así). También he de reconocer que en general desarrollar depende de cada uno. Cuando pasan años y veo algún trozo de código que he hecho yo lo reconozco al momento. Supongo que mi código tiene mi firma. Para acabar, también creo que la parte de desarrollo, aunque siempre hay alguien presionando por “las fechas” es algo que puede llegar a ser muy laxo, porque simplemente cuando vas a comenzar el desarrollo, te sobras con unas cuantas semanas de más y tan a gusto.

En cambio la administración de sistemas es bastante distinta. En general hay dos tipos de actuaciones: el “ha petado todo” y el “hay que actualizar”. En general las dos situaciones son bastante mierdas. Cuando falla algo, normalmente hay que arreglarlo “para ya”. Esto implica unos niveles de estrés bastante duros ya que sueles tener a moscas cojoneras molestando y revoloteando a tu alrededor. Por desgracia la gente no parece percatarse de que en la mayoría de los casos cuando algo falla tú ya te has dado cuenta porque te han llegado 10 correos avisando de que nosequé está fallando.

La otra situación, la de los mantenimientos tiene su parte positiva y su parte negativa. La positiva es el I+D. La evolución en la parte de la programación suele producirse cada unos pocos años y los saltos no son muy grandes (yo podría programar con lo mismo que aprendí en 2001) pero en cambio la parte de infraestructura suele ser distinta. Las máquinas van evolucionando cada poco tiempo (cada 6 meses suele haber servidores más potentes) y hay que ir adaptando el software al hardware para sacar el máximo provecho.

Por poner un ejemplo, en estos dos últimos meses que he podido ponerme un poco más a fondo con Varnish creo que he hecho hasta 5 versiones nuevas de la configuración. A veces es un simple cambio de una cifra, otras veces es añadir una funcionalidad completamente nueva, pero en cualquier caso pueden llegar a ser varias horas (o días) dedicados a intentar rascar un poco de aquí y de allá para que todo funcione mejor. Yo no conozco a muchos programadores que tras acabar un proyecto vuelvan a abrir el programa y se revisen el código en busca de mejoras (y que conste que me incluyo, aunque sí que de tanto en tanto me pongo a revisar código para optimizarlo de alguna manera).

Sé que muchos lusers #BOFH no van a entender la mitad de lo que digo (ni falta que hace) pero creo que necesitaba desahogarme un poco después de unos días en los que entre unos (desarrolladores) y otros (administradores) están acabando conmigo…

Servidores DNS públicos

No es la primera vez que hablo de las DNS, aunque en este caso no voy a hablar de los NS de nuestros sitios web, sino de los que usamos en nuestro ordenador… las que utilizamos para resolver los sitios web desde nuestra conexión de casa. Y es que cada vez más los servidores que habitualmente usamos en casa sólo funcionan en las conexiones de casa (es decir, cada operador limita las peticiones a su propia conectividad) ha llevado a que existan servidores DNS públicos que ofrecen servicios añadidos interesantes.

Quizá uno de los servidores DNS abiertos más conocidos sea el de Google Public DNS que nos ofrece las direcciones:

  • 8.8.8.8
  • 8.8.4.4

Y también las ofrece para IPv6:

  • 2001:4860:4860::8888
  • 2001:4860:4860::8844

Personalmente los servidores de Google no me acaban de convencer… mi experiencia con ellos no se puede decir que haya sido la mejor hasta el momento, pero por sus números fáciles de recordar siempre te sacan de un apuro cuando no sabes qué utilizar. Últimamente estoy usando los servidores de OpenDNS:

  • 208.67.222.222
  • 208.67.220.220

Estos también tienen direcciones DNS para IPv6:

  • 2620:0:ccc::2
  • 2620:0:ccd::2

Lo interesante de este servicio es que si te registras, de forma gratuita, y te instalas el programita que hay puedes entrar en un panel y mirar las peticiones que haces y tienes ciertas estadísticas que pueden ser bastante curiosas… Además, en los casos en los que hay phishing y demás, el sistema lleva alertas de seguridad para que no funcionen, lo que sirve también como una especie de “antivirus de DNS”.

A parte de estos dos servicios también hay otros. Por ejemplo los siguientes:

SmartViper:

  • 208.76.50.50
  • 208.76.51.51

DNS Reactor:

  • 204.45.18.18
  • 204.45.18.26

Comodo Secure DNS:

  • 8.26.56.26
  • 156.154.70.22

DNS Advantage:

  • 156.154.70.1
  • 156.154.71.1

Norton DNS aquí nos encontramos con 3 niveles de seguridad dependiendo de lo que quieras filtrar o no.

Simplemente seguridad (phishing, malware…)

  • 198.153.192.40
  • 198.153.194.40

Seguridad y pornografía:

  • 198.153.192.50
  • 198.153.194.50

Seguridad, pornografía y “no familiar”:

  • 198.153.192.60
  • 198.153.194.60

Scrub IT:

  • 67.138.54.100
  • 207.225.209.66

También tenemos las DNS de Verizon/Level 3 que aunque no hay una web oficial (si alguien la encuentra que me la pase) da una lista de algunas IP muy sencillas de recordar pero que en este caso vuelven a depender de una operadora…

  • 4.2.2.1
  • 4.2.2.2
  • 4.2.2.3
  • 4.2.2.4
  • 4.2.2.5
  • 4.2.2.6

Finalmente encontramos una serie de servidores de OpenNic que actualmente ronda los 70 servidores y que en general son servidores anónimos que no hacen log de las peticiones distribuidos por distintas partes del mundo.

Una forma de probar cuáles son los mejores servidores DNS para nuestro ordenador (dependiendo de la conexión que tengamos, localización y demás) podemos usar la herramienta namebench (Open-source DNS Benchmark Utility) o Domain Name Speed Benchmark. Haciendo una prueba desde un ADSL de Telefónica en Barcelona, los resultados son (top-5):

  • 156.154.70.1 (DNS Advantage)
  • 198.153.194.60 (Norton DNS)
  • 8.8.8.8 (Google DNS)
  • 156.154.70.22 (Comodo Secure DNS)
  • 8.8.4.4 (Google DNS)

Final benchmark results, sorted by nameserver performance:
 (average cached name retrieval speed, fastest to slowest)

  156.154. 70.  1 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  - Cached Name   | 0,068 | 0,070 | 0,073 | 0,001 | 100,0 |
  - Uncached Name | 0,069 | 0,160 | 0,416 | 0,101 | 100,0 |
  - DotCom Lookup | 0,069 | 0,096 | 0,175 | 0,030 | 100,0 |
  ---< -------->---+-------+-------+-------+-------+-------+
                   rdns1.ultradns.net
                         NeuStar

  198.153.194. 60 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  - Cached Name   | 0,071 | 0,073 | 0,077 | 0,001 | 100,0 |
  - Uncached Name | 0,072 | 0,162 | 0,414 | 0,104 |  98,0 |
  - DotCom Lookup | 0,075 | 0,139 | 0,196 | 0,034 | 100,0 |
  ---< -------->---+-------+-------+-------+-------+-------+
          ··· no official Internet DNS name ···
                  SYMANTEC CORPORATION

    8.  8.  8.  8 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  - Cached Name   | 0,072 | 0,074 | 0,076 | 0,001 | 100,0 |
  - Uncached Name | 0,075 | 0,161 | 0,422 | 0,099 | 100,0 |
  - DotCom Lookup | 0,082 | 0,114 | 0,235 | 0,044 | 100,0 |
  ---< -------->---+-------+-------+-------+-------+-------+
             google-public-dns-a.google.com
                   Google Incorporated

  156.154. 70. 22 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  - Cached Name   | 0,072 | 0,074 | 0,077 | 0,001 | 100,0 |
  - Uncached Name | 0,074 | 0,163 | 0,530 | 0,103 | 100,0 |
  - DotCom Lookup | 0,074 | 0,125 | 0,183 | 0,042 | 100,0 |
  ---< -------->---+-------+-------+-------+-------+-------+
          ··· no official Internet DNS name ···
                         NEUSTAR

    8.  8.  4.  4 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  - Cached Name   | 0,073 | 0,075 | 0,083 | 0,002 | 100,0 |
  - Uncached Name | 0,077 | 0,164 | 0,661 | 0,116 | 100,0 |
  - DotCom Lookup | 0,082 | 0,105 | 0,165 | 0,025 | 100,0 |
  ---< -------->---+-------+-------+-------+-------+-------+
             google-public-dns-b.google.com
                 Level 3 Communications

    4.  2.  2.  6 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  - Cached Name   | 0,076 | 0,078 | 0,087 | 0,002 | 100,0 |
  - Uncached Name | 0,078 | 0,151 | 0,577 | 0,107 | 100,0 |
  - DotCom Lookup | 0,080 | 0,096 | 0,204 | 0,026 | 100,0 |
  ---< -------->---+-------+-------+-------+-------+-------+
          ··· no official Internet DNS name ···
                 Level 3 Communications

  156.154. 71.  1 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  - Cached Name   | 0,077 | 0,078 | 0,082 | 0,001 | 100,0 |
  - Uncached Name | 0,078 | 0,156 | 0,520 | 0,108 | 100,0 |
  - DotCom Lookup | 0,080 | 0,128 | 0,202 | 0,041 | 100,0 |
  ---< -------->---+-------+-------+-------+-------+-------+
                   rdns2.ultradns.net
                         NEUSTAR

  198.153.194. 40 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  - Cached Name   | 0,077 | 0,078 | 0,081 | 0,001 | 100,0 |
  - Uncached Name | 0,077 | 0,158 | 0,476 | 0,101 | 100,0 |
  - DotCom Lookup | 0,078 | 0,125 | 0,211 | 0,042 | 100,0 |
  ---< -------->---+-------+-------+-------+-------+-------+
          ··· no official Internet DNS name ···
                  SYMANTEC CORPORATION

    4.  2.  2.  4 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  - Cached Name   | 0,075 | 0,078 | 0,089 | 0,002 | 100,0 |
  - Uncached Name | 0,077 | 0,191 | 0,541 | 0,126 | 100,0 |
  - DotCom Lookup | 0,076 | 0,219 | 0,369 | 0,095 |  98,0 |
  ---< -------->---+-------+-------+-------+-------+-------+
          ··· no official Internet DNS name ···
                 Level 3 Communications

    4.  2.  2.  3 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  - Cached Name   | 0,079 | 0,081 | 0,084 | 0,001 | 100,0 |
  - Uncached Name | 0,079 | 0,144 | 0,411 | 0,090 | 100,0 |
  - DotCom Lookup | 0,080 | 0,183 | 0,336 | 0,096 | 100,0 |
  ---< -------->---+-------+-------+-------+-------+-------+
                  vnsc-lc.sys.gtei.net
                 Level 3 Communications

  198.153.194. 50 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  - Cached Name   | 0,080 | 0,082 | 0,084 | 0,001 | 100,0 |
  - Uncached Name | 0,081 | 0,165 | 0,447 | 0,099 | 100,0 |
  - DotCom Lookup | 0,082 | 0,136 | 0,221 | 0,043 | 100,0 |
  ---< -------->---+-------+-------+-------+-------+-------+
          ··· no official Internet DNS name ···
                  SYMANTEC CORPORATION

  208. 67.220.220 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  + Cached Name   | 0,080 | 0,082 | 0,084 | 0,001 | 100,0 |
  + Uncached Name | 0,081 | 0,165 | 0,397 | 0,090 | 100,0 |
  + DotCom Lookup | 0,086 | 0,168 | 0,254 | 0,056 | 100,0 |
  ------+-------+-------+-------+-------+-------+
                  resolver2.opendns.com
                      OpenDNS, LLC

  198.153.192. 60 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  - Cached Name   | 0,080 | 0,082 | 0,094 | 0,002 | 100,0 |
  - Uncached Name | 0,081 | 0,166 | 0,420 | 0,100 | 100,0 |
  - DotCom Lookup | 0,085 | 0,147 | 0,210 | 0,043 |  98,0 |
  ---< -------->---+-------+-------+-------+-------+-------+
          ··· no official Internet DNS name ···
                  SYMANTEC CORPORATION

  208. 67.222.222 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  + Cached Name   | 0,080 | 0,082 | 0,086 | 0,001 | 100,0 |
  + Uncached Name | 0,082 | 0,177 | 0,467 | 0,108 | 100,0 |
  + DotCom Lookup | 0,084 | 0,164 | 0,271 | 0,059 | 100,0 |
  ------+-------+-------+-------+-------+-------+
                  resolver1.opendns.com
                      OpenDNS, LLC

    8. 26. 56. 26 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  - Cached Name   | 0,076 | 0,082 | 0,195 | 0,017 | 100,0 |
  - Uncached Name | 0,078 | 0,234 | 0,953 | 0,206 | 100,0 |
  - DotCom Lookup | 0,086 | 0,126 | 0,187 | 0,034 | 100,0 |
  ---< -------->---+-------+-------+-------+-------+-------+
                  ns1.recursive.dns.com
                 Level 3 Communications

  198.153.192. 40 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  - Cached Name   | 0,081 | 0,083 | 0,087 | 0,001 | 100,0 |
  - Uncached Name | 0,082 | 0,170 | 0,482 | 0,104 | 100,0 |
  - DotCom Lookup | 0,084 | 0,152 | 0,194 | 0,035 | 100,0 |
  ---< -------->---+-------+-------+-------+-------+-------+
          ··· no official Internet DNS name ···
                  SYMANTEC CORPORATION

    4.  2.  2.  5 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  - Cached Name   | 0,084 | 0,086 | 0,089 | 0,001 | 100,0 |
  - Uncached Name | 0,086 | 0,151 | 0,449 | 0,092 | 100,0 |
  - DotCom Lookup | 0,095 | 0,132 | 0,332 | 0,056 | 100,0 |
  ---< -------->---+-------+-------+-------+-------+-------+
          ··· no official Internet DNS name ···
                 Level 3 Communications

  198.153.192. 50 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  - Cached Name   | 0,085 | 0,087 | 0,089 | 0,001 | 100,0 |
  - Uncached Name | 0,086 | 0,172 | 0,482 | 0,099 | 100,0 |
  - DotCom Lookup | 0,086 | 0,127 | 0,211 | 0,040 | 100,0 |
  ---< -------->---+-------+-------+-------+-------+-------+
          ··· no official Internet DNS name ···
                  SYMANTEC CORPORATION

    4.  2.  2.  1 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  - Cached Name   | 0,080 | 0,150 | 0,263 | 0,064 | 100,0 |
  - Uncached Name | 0,091 | 0,366 | 1,470 | 0,256 |  96,0 |
  - DotCom Lookup | 0,168 | 0,390 | 0,844 | 0,170 |  97,9 |
  ---< -------->---+-------+-------+-------+-------+-------+
                  vnsc-pri.sys.gtei.net
                 Level 3 Communications

  204. 45. 18. 18 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  - Cached Name   | 0,194 | 0,209 | 0,322 | 0,030 | 100,0 |
  - Uncached Name | 0,219 | 0,276 | 0,593 | 0,066 |  98,0 |
  - DotCom Lookup | 0,220 | 0,228 | 0,271 | 0,012 | 100,0 |
  ---< -------->---+-------+-------+-------+-------+-------+
                 smtp18.cleargateway.net
                     FDCservers.net

  204. 45. 18. 26 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  - Cached Name   | 0,191 | 0,231 | 0,575 | 0,076 | 100,0 |
  - Uncached Name | 0,214 | 0,275 | 0,519 | 0,063 | 100,0 |
  - DotCom Lookup | 0,217 | 0,233 | 0,280 | 0,016 | 100,0 |
  ---< -------->---+-------+-------+-------+-------+-------+
                 smtp26.cleargateway.net
               FDCSERVERS - FDCservers.net

    4.  2.  2.  2 |  Min  |  Avg  |  Max  |Std.Dev|Reliab%|
  ----------------+-------+-------+-------+-------+-------+
  - Cached Name   | 0,152 | 0,243 | 0,326 | 0,044 |  89,4 |
  - Uncached Name | 0,181 | 0,512 | 1,333 | 0,328 |  90,5 |
  - DotCom Lookup | 0,165 | 0,639 | 1,208 | 0,318 |  86,8 |
  ---< -------->---+-------+-------+-------+-------+-------+
                  vnsc-bak.sys.gtei.net
                 Level 3 Communications

   67.138. 54.100 | DNS queries are not answered at this IP.
  ---< -------->---+-------+-------+-------+-------+-------+
          ··· no official Internet DNS name ···
                 NSI Communications, LLC

  207.225.209. 66 | DNS queries are not answered at this IP.
  ---< -------->---+-------+-------+-------+-------+-------+
              207-225-209-066.scrubdns.com
                  Qwest Communications

  208. 76. 50. 50 | The DNS server at this IP address does
  not provide domain name service answering client queries.
  It should not be used for normal client-based resolution.
  ---< -------->---+-------+-------+-------+-------+-------+
               ip-50.50.76.208.datasub.com
                Gold Star Advantage, LLC.

  208. 76. 51. 51 | The DNS server at this IP address does
  not provide domain name service answering client queries.
  It should not be used for normal client-based resolution.
  ---< -------->---+-------+-------+-------+-------+-------+
               ip-51.51.76.208.datasub.com
                Gold Star Advantage, LLC.

  UTC: 2012-05-30, from 17:14:11 to 17:15:58, for 01:47,538

Splunk Live 2012 Barcelona

Esta mañana he podido asistir al primer evento oficial de Splunk en España, de la mano de OpenS3 en Barcelona y como me ha parecido interesante algunas de las cosas que se han comentado, os las dejo.

Splunk comenzó en 2004 en San Francisco y tiene más de 400 empleados en 8 países. Las principales oficinas están en Hong Kong y Londres. Tienen más de 3500 clientes de 70 países, de los cuales 48 están en el Fortune 100.

Hay muchos casos en los que Splunk está analizando más de 10 TB diarios de información. Algunas empresas como Facebook, eBay, Linkedin, Sony, BBC, Symantec y otros están utilizando esta herramienta. Con sistemas similares a MapReduce no hay limitación en cuanto a la escalabilidad de la plataforma. Cisco además de ser un cliente es un partner en cuanto en algunos casos integran en sus sistemas Splunk. Según Cisco, Splunk es el único software capaz de interpretar cualquiera de los logs que se generan en las máquinas de Cisco, y no como en otros casos que tienen muchos pequeños productos que leen una parte de la información.

Splunk además es una gran herramienta de seguridad, ya que es pro activa en analizar comportamiento extraños en los logs. Por ejemplo, si estás recibiendo un ataque desde una serie de direcciones rusas, sería capaz de detectar qué máquina o qué servicio es el que está enviando o recibiendo esta información. A parte de logs, es capaz de recibir información de bases de datos, GPS, registros de sistema, cualquier elemento que se pueda concebir como “datos IT”. Esta información, además de ser útil para los técnicos, puede ser útil para marketing o seguridad.

Otra de las funcionalidades interesantes de Splunk es la posibilidad de ser utilizado como sistema de Web Analytics, aunque es una pequeña parte del sistema, es capaz de analizar cualquiera de los elementos: páginas, vídeos, imágenes…

Splunk se divide en 3 partes: Collectors, Indexers y Search Heads (que es la web donde se ve la información). Se puede escalar horizontalmente, tienen alta disponibilidad y podría recoger unos 25 GB diarios. Cada máquina podría ser un quad-core con 8GB de RAM. El despliegue es bastante rápido y es capaz de usarse independientemente de cada lugar. Los Indexer pueden estar geolocalizados y el Search Head cercano a donde los usuarios lo van a utilizar.

El sistema es capaz de interpretar expresiones regulares para los distintos elementos que pueden encontrarse en los logs, de forma que es capaz de interpretar cualquier tipo de fichero. Es capaz de monitorizar el sistema de ficheros, registros del sistema operativo, control de hypervisores de máquinas virtuales, aplicaciones web, tablas o esquemas en bases de datos, configuraciones de red…

Splunk aparece como base como un buscador al estilo de Google en el que puedes realizar cualquier tipo de datos (buscar una IP, una dirección URL…) además de permitir generar informes personalizados en base a la información recogida. Además se puede hacer seguimiento de transacciones. Un ejemplo podría ser que un sitio web genere un identificador de una venta, se cruzan datos con que se haya enviado un correo avisando de la venta al usuario, y finalmente que el paquete (logística) se haya enviado.

Splunk tiene un sistema de geolocalización de direcciones IP, de forma que se podría analizar de una forma muy sencilla y mostrar o geolocalizar las visitas con mucho detalle (dependiendo incluso de qué sea, con datos de coordenadas GPS).

Existe un repositorio de paneles ya creados que analizan directamente los logs o datos. Muchas de estas extensiones están realizados directamente por la gente de Splunk aunque hay una gran comunidad detrás generando estos paneles.

Resetear la pila TCP/IP

¿Te va mal la conexión? Cuando llevamos mucho tiempo usando un ordenador, instalando y desinstalando programas y, sobre todo, si utilizas mucho Internet o las redes internas en tu casa, en la empresa o donde sea, es probable que la pila del TCP/IP (el protocolo de comunicación de, entre otras cosas, Internet) se haya quedado tocado por alguna configuración.

¿Cómo solventarlo? Pues en Windows (en general funciona en XP, Vista y 7) es bastante sencillo:

  1. Acceder a Inicio -> Ejecutar -> cmd (Ejecutar como Administrador)
  2. Ejecutar el comando: netsh int ip reset c:\resetlog.log
  3. Ejecutar el comando: netsh winsock reset
  4. Reiniciar la máquina

Muy recomendable, si se quiere investigar más, una lectura a cómo usar la herramienta Netsh.

En Linux también existe un comando similar que permite hacer un reset a la pila…

  1. Acceder a la consola como administrador
  2. Ejecutar el comando: ifconfig eth0|grep "inet addr"|cut -d : -f 2 |cut -d " " -f 1
  3. Reiniciar la máquina

Espero que con esto consigáis notar cierta mejora en vuestra conectividad. Mano de Santo, ¡oiga!

Invertir en infraestructura y sistemas

En 1997 me encontré un problema cuando tuve que subir a la red de redes mi primer sitio web… a algunos les será reconocido un sitio llamado AngelFire… pues sí, ahí coloqué mi primera web… tiempo después lancé mi primer sitio con dominio propio que me alojó una persona que ya estaba metida en el sector y que me dio hosting gratis durante una larga temporada.

En 1999 tenía mi primer servidor dedicado, con mi propia IP, y pagando ya cada mes (o creo que cada 3) una pequeña cuota por tener un servicio decente para mis sitios… tras eso muchas idas y venidas probando alojamientos en varios proveedores del mundo hasta que acabé en mi proveedor actual, Kaos, que era el ISP que tenía Grupo ITnet por aquellos 2003 cuando comencé a trabajar en la empresa.

Desde ahí he pasado de tener servidores (sí, en plural) dedicados a tener VPS (Virtual Private Server), varios de ellos, que hoy en día me permiten escalar todas las aplicaciones. Si sumo los que tengo yo y los que tiene Keep It Simple Lab creo que debemos tener ahora mismo unas 11 máquinas, que no son pocas.

En estos últimos meses me he visto envuelto en la implementación de estrategias de infraestructura de varias empresas, empresas muy distintas pero que tienen una cosa en común: todas ganan dinero a través de Internet. Y al fin y al cabo los sitios web hoy en día son bastante similares… una base de datos (que suele necesitar una máquina con algo más de recursos que el resto), una máquina para el frontal web, a veces alguna otra máquina para cosas especiales (sitio SSL, algo que no se puede cachear y siempre ha de estar disponible, etc…) y últimamente una o muchas máquinas de web-proxy ya estén en el propio país o distribuidos por el mundo, según las necesidades del proyecto. Creo que algunos pensarán que “para qué quiero yo tantas máquinas si en una puedo meter el mySQL, el Apache, el correo y las DNS”. Sí, se puede, pero después de 15 años haciendo webs la experiencia me dice que hacer esto suele acabar mal, sobre todo si tienes proyectos “con cara y ojos”. Si tienes un simple WordPress, pues a lo mejor no te es necesario, pero si estás haciendo una tienda por la red, aunque sea pequeña, necesitas disponibilidad, alto rendimiento…

Si vamos a la parte de “hacer números” os puedo decir que aproximadamente invierto un 3% de lo que facturo en sistemas. Esta cifra porcentual es lo que mi socio Jaume dice que viene a ser que “has de invertir en infraestructura lo que ganas en un día, todo el mes, como mínimo”. Es decir, que si facturas 3.000 euros al mes, debes gastarte al menos 100 euros en servidores, que es “el coste de estar un día sin servicio”. Que conste que no es una regla de oro, pero haciendo números es bastante aproximado a lo que un jefe puede despotricar cuando una web no funciona.

Y es que me hace gracia que, gente que se gana la vida con Internet, cuando le dices de gastarse 100 euros al mes en servidores se echa las manos a la cabeza… pues, qué queréis que os diga, con 100 euros mensuales se hacen maravillas en cuanto a servidores, ya que puedes tener 2-3 máquinas más que decentes que pueden servir 1.000 visitas/segundo sin pestañear. Que sí, que poca gente tiene 1.000 visitas/segundo, pero cuando tienes 50 sitios web pequeñas en un sitio, te aseguro que estos datos te pueden parecer bajos.

Otro detalle a tener en cuenta es dónde tienes los servidores, físicamente. Si tu sitio está enfocado a vender en España, has de tener los servidores en España, por la simple razón de la conectividad. Cada país tiene su propia red “gigante” de fibra que interconecta los operadores de telefonía / Internet con los ISP o con las redes más importantes, para ser más concretos, con los Centros de Datos, a menos que tú te hagas tu propio miniISP en tu oficina y directamente uses una de las operadoras. En el momento en el que te vas a otro país, la interconexión es simplemente pésima. Las conexiones internacionales son bastante malas, y no sólo pasa aquí, pasa en general en todo el mundo.

Hoy en día parece que el tema del alojamiento web se haya convertido en un commodity. En parte sí lo es, el tema viene cuando tu sitio web tiene unas necesidades de administración de sistemas que no te va a dar tu proveedor de esos que por 1 euro te hace tu sitio web… porque, ¿sabes qué ocurre? que cuando se te rompa la web se limitarán a reiniciar tu servidor, y si sigue sin ir el problema sigues teniéndolo tú. Lo caro de los servidores web no son las máquinas… eso es más o menos barato, lo importante es tener una buena conectividad (sobre todo si tu negocio se basa en SEO, estaría bien pensar cómo llega Google a tu sitio web) y, sobre todo, tener bien configuradas las máquinas. A veces cambiar un simple número de 8M a 16M en el Apache o mySQL hace que una web funcione de muy mal a muy bien.

¿Qué te pensabas, que montar una web era algo tan sencillo como entrar por FTP y subir el sitio? Pues no, pero claro, a los administradores de sistemas que nos den… total, como ya tengo mi web funcionando ¿para qué voy a pagar a alguien que se preocupe de darme lo mejor?

NOTA: Sí, para los que no lo sepan, yo soy administrador de sistemas, que aunque no ejerzo en el día a día, sí que me preocupa el asunto. Si algún día hay huelga de SysAdmins, preparaos, porque el mundo se acabará.

Acceso a sitios web desde aplicaciones web

En muchos sitios hoy en día te puedes loguear desde tu cuenta de Google, Facebook, Twitter, Linkedin… pero en algunas ocasiones quieres dejar de dar acceso a esas herramientas que “leen” tus datos de las redes sociales y, por lo que sea, no hay posibilidad de darse de baja.

La solución es bastante sencilla, pero hay que tenerlo presente. Todos estos sitios que he mencionado antes disponen de unos paneles en los que dar o quitar acceso a estas otras herramientas que acceden contra ellas. De tanto en tanto vale la pena darle una ojeada a esas páginas para eliminar accesos “extraños” o simplemente hacer un pocod e limpieza y mantener tu casa un poco ordenada.

Facebook:

Para Facebook hay que acceder a la sección de aplicaciones y una vez allí verás el listado de las mismas, la última fecha que han accedido a tu información y la posibilidad de editar los permisos o eliminar directamente la posibilidad de acceso.

Twitter:

Para twitter es quizá el sistema más sencillo, simplemente entras en la gestión de Apps y allí puedes revocar el acceso a las aplicaciones que no te interesen.

Google:

Siempre Google es de los que lo tienen más escondido para llegar, pero se puede acceder de forma directa en Acceso autorizado a tu Cuenta de Google. Aquí te aparece una lista de las aplicaciones que tienen acceso, qué tipo de acceso y la opción de revocarlo.

Linkedin:

Tienes en las opciones de Linkedin la posisibilidad de añadir aplicaciones propias y de gestionar las propias y externas. Aquí simplemente tendrás un listado con el nombre de las aplicaciones y un botón para eliminar el acceso, sin más explicaciones.

Con esto podrás mantener al día tus cuentas y tu información privada, que últimamente estamos dejando repartir por el mundo sin ton ni son, y no creo que sea lo mejor que podemos hacer…

Herramientas para desarrolladores en Firefox 12

Uso Firefox el 95% del tiempo que paso con un navegador de Internet, y es que creo que como navegador es muy buena la integración con herramientas y su funcionamiento en el desarrollo de sitios web. Dicen que Chrome funciona mejor, pero a mi la verdad es que ha llegado un momento en el que es todo tan simple que no acabo de entenderlo.

Hace días que ya tenemos disponible Firefox 12 (en versión alpha, que conste) y, además de estar disponible para máquinas de 64 bits (algo que me atrae bastante) hay cambios bastante importantes en lo que herramientas para desarrolladores se refiere.

NOTA: si quieres ver las últimas versiones para probar, puedes visitar la página de Firefox Nightly version.

Antes de entrar en detalle sobre los cambios que va a traer el propio navegador, me gustaría destacar la colección de Mozilla de herramientas para desarrolladores. Aquí podemos ver algunos addons como Firebug, la Web Developer, Colorzilla o Show IP.

Lo primero que sorprende es que el F12 ha dejado de funcionar para dividirse en varias herramientas y combinaciones de teclas, como se puede ver en el menú de opciones.

Web Console

Es lo más parecido a la antigua consola que teníamos antes. Básicamente controla la red y los errores generados por CSS y JavaScript. De cada una de las peticiones podemos ver su “ficha” con las cabeceras, cookies y respuesta por parte del servidor, además de, petición a petición, los errores que van generando cada una de ellas a la hora de maquetar la página.

Inspect

Quizá es de las herramientas sobre las que más cambios visibles se pueden ver. La opción de inspección de los distintos bloques del código de la web se han hecho mucho más sencillos y en la parte inferior podemos ver en path completo, en la parte inferior el código HTML y en la parte lateral el CSS que se le está aplicando. Además, cuando vayamos seleccionando el código, veremos la etiqueta y clases que se le están aplicando de un vistazo rápido.

JavaScript Scratchpad

Aunque muy simple, esta pantalla nos permitirá hacer y revisar funciones de JavaScript para analizarlas. Como digo, por ahora bastante sencillo.

Style Editor

Aunque en este caso me parece una herramienta muy sencilla sin duda es bastante potente en cuanto puedes hacer cambios en tiempo real sobre los CSS y añadir o eliminar estilos cargando otros ficheros. En aquellos sitios que usen varios ficheros CSS puede venir muy bien para crear la hoja de estilos en tiempo real e ir viéndola aplicada en todo momento.

En estos momentos todavía quedan 4 versiones hasta que se lance la 12, por lo que es de prever que esto es sólo el principio en cuanto a cambios que se van a implantar en el navegador, cambios que hace tan sólo un par de años tal vez ni pensábamos tener como herramientas integradas.

La nueva UX de Google

Google está cambiando su interfaz al igual que está reajustando sus productos. Google Plus no es una red social, sino que como su nombre indica es un “plus” al propio Google. Y todo esto llega después de que Brin y Page se hayan puesto de nuevo a dirigir la empresa.

Han pasado 15 años desde que una idea de algoritmo llegase a la cabeza de ambos y se convirtiera en realidad, primero creando el buscador genérico, luego creando verticales, luego con la compra de DejaNews tener información de terceros que poder almacenar, que si correo electrónico, que si servicios por aquí y por allí… A los trabajadores se les dejaba un 20% de su tiempo para hacer inventos, pero, no nos engañemos, Google, a diferencia de Yahoo! o Microsoft “siempre” ha sido el buscador y no sus servicios.

Es por eso que ha llegado este cambio de mentalidad, el que los usuarios de Google realmente conozcan el potencial de todos sus productos, muchos desconocidos para la mayoría. Y aquí es donde la renovación de la interfaz llega y se centra en 2 cosas: que haya una integridad entre todos los productos de forma que pases de uno a otro sin problemas y no te sientas distinto, y un foco en los contenidos, en el rendimiento de dichos productos, en que si vas a por correo, el correo sea lo que carga mejor.

Hace años que esto mismo lo comentaba con mucha gente, Google tiene buenos productos pero no es capaz de darlos a conoce porque su página de inicio es un simple cajetín de búsqueda, algo que ha condicionado mucho el crecimiento de todo aquello que no son búsquedas. Esto pasa a diferencia de Microsoft con MSN, punto de inicio, aunque ellos el problema lo tienen en las marcas, en los continuos cambios de nombre. Yahoo! en esto ha sido mucho más inteligente, y aunque no lo parezca es la que más está haciendo por conseguir volver a ser lo que fue hace muchos años. Ha conseguido despreocuparse, una vez más, de las búsquedas para centrarse en los contenidos y servicios.

Y no sé si habréis probado el nuevo Yahoo! Mail, pero a mi me ha dejado sorprendido. Creo que le faltan algunos detalles pero sin duda eso sí es una interfaz clara y, sobre todo, rápida, algo que últimamente hecho de menos en Google Mail. Microsoft, por su parte, está más focalizada en que las cosas funcionen aunque vaya un paso más atrás, intentando integrar todo en su sistema operativo, algo que creo que hace bien, ya que si hasta ahora Windows había tenido problemas de monopolio, con la irrupción de Android o iPhone creo que ahora las cosas van a cambiar, y Windows 8 es la demostración de ello.

Yendo a la parte más, no sé cómo llamarlo…, a mi la nueva interfaz de Google me gusta, los colores me dan bastante igual, porque al final el objetivo que busco es la funcionalidad. Las cosas están donde deben esta, la pantalla es clara, sacan el máximo provecho de la tecnología incluso avanzándose hasta sacar el máximo partido posible de HTML 5 en el que se han involucrado mucho.

Se acerca 2012 y vamos a ver movimientos interesantes. El objetivo ya no se centra tanto en las búsquedas sino en conseguir que los usuarios utilicen los servicios alrededor de esas búsquedas, sobre todo para la integración social. Bing comenzará a hacer uso de Facebook para personalizar sus resultados. Google lo está haciendo con Google Plus. Twitter seguramente mejorará su infraestructura de búsquedas para convertirse en otro competidor por la información de última hora.

Y es que hasta ahora todos los grandes portales han estado mu enfocados en ofrecer nuevos servicios, en ser los primeros en lanzar la nueva herramienta que cambiará el mundo, pero eso está cambiando, ahora el foco es potenciar el uso de todos los servicios de un mismo proveedor y mejorar los servicios existentes eliminando aquello que es poco útil. El objetivo de crear unas nuevas experiencias de usuario es clara, la de optimizar la rentabilidad del usuario.