VPS baratos para desarrolladores

Los programadores tenemos esa ligera manía de querer probar cosas. Pero para probar cosas lo más parecido a un entorno de producción lo que se suele necesitar son máquinas virtuales (VPS) que tengan características similares aunque no el rendimiento adecuado; es decir, la misma máquina con menos CPU y RAM. El hecho de que tecnológicamente un sistema tenga menos recursos también tiene una ventaja: si funciona en pequeño, debería funcionar en grande. De la misma manera, al contrario, si no funciona en pequeño, aunque funcione en grande, es probable que no escale.

Es por esto que me gustan mucho las máquinas VPS baratas que se encuentran por ahí. Probablemente no sean las mejores máquinas pero son tan baratas que te ayudan a poderte hacer una idea de cómo funcionaría tu producto alrededor del mundo.

Para este artículo voy a plantearme hacer una comparativa basada en una relación 1 CPU + 1 GB de RAM, y a partir de ahí, “lo que surja”. El objetivo es encontrar máquinas baratas, con un mínimo de RAM y procesador y que tengan cierto rendimiento.

La tabla que presento ahora es una lista de algunos sitios web donde contratar, con algunas características simplemente por comparar de forma rápida.

SitioCPURAM (GB)Disco (GB)TráficoConexiónVirtualizaciónPrecio/mes
1and11150 SSDilimitado100 MbpsVMWare4.99 USD
A2 hosting1120 SSD2 TBOpenVZ7.63 EUR
Atlantic1140 SSD3 TBKVM10.00 USD
bandwagonhost2120 SSD1 TB1 GbpsOpenVZ / KVM4.99 USD
brightbox1130 SSDKVM15.00 GBP
budgetvm1175 SSD3 TB100 MbpsOpenVZ4.99 USD
digitalocean1130 SSD2 TBKVM10.00 USD
hetzner1125 SSD2 TB1 GbpsKVM3.90 EUR
linode1120 SSD1 TB1 GbpsKVM5.00 USD
ovh1210 SSDilimitado100 MbpsKVM3.49 USD
ramnode1140 SSD1 TBOpenVZ3.50 USD
ramnode2120 SSD2 TBKVM5.00 USD
scaleway2250 SSDilimitado200 MbpsKVM2.99 EUR
scaleway4850 SSDilimitado300 Mbpsninguna11.99 EUR
stablehost1140 SSD2 TB1 GbpsOpenVZ / KVM9.95 USD
upcloud1130 MaxIOPS2 TB10.00 USD
vpsdime4 compart.630 SSD2 TB10 GbpsOpenVZ7.00 USD
vpsdime1 dedic.460 SSD2 TB10 GbpsKVM20.00 USD
vps.net4125 SSD3 TBXen10.00 USD
vultr1125 SSD1 TBKVM5.00 USD

NOTA: Los precios pueden ser aproximados, pero son los que había en la web en el momento en el que se hizo la tabla.

Espero que esta lista de sitios donde encontrar alojamiento barato para hacer pruebas sea útil, y que además sirva para descubrir otros posibles alojamientos para tus proyectos.

Base de Datos de Códigos Postales de España

Se supone que Correos es una empresa con participación pública (y viene de ser una empresa completamente pública) pero eso parece que no ayuda a que sus datos sean considerables como abiertos. Esto hace que algo tan absurdo como la base de datos de Códigos Postales y calles no esté disponible de forma simple abierta y gratuita, como debería. Es por esto que hace unos años hice un primer acercamiento a tener una base de datos de códigos postales, aunque aquella vez fue hecha de forma manual.

En esta ocasión he estado rebuscando por la red de redes y gracias a varias fuentes de datos que tenían información suelta, y también gracias al portal de datos.gob.es donde hay algunos elementos del INE, he conseguido hacer un megamix de información y poder crear una base de datos en SQL relacional de provincias, poblaciones (municipios) y códigos postales.

El portal lo he lanzado en postal.cat y aunque la web está en catalán, el contenido está en las lenguas oficiales, ya que las poblaciones han de estar así. Allí encontrarás los ficheros en formato CSV, Excel y SQL, dependiendo de lo que quieras hacer.

Además, es probable que haya una siguiente actualización en la que se incluya el callejero, de forma que en las grandes ciudades donde hay más d eun código portal por municipio, se podría buscar la calle y así saber cuál es el código portal correcto que tiene. De todas formas, esto es algo que ya llegará.

La odisea de tener datos móviles fuera de Europa

Viajar a Estados Unidos es algo de conocido por muchos que me gusta hacer de tanto en tanto, principalmente a Miami donde tuve la oportunidad de vivir medio año y que me abrió los ojos en muchos sentidos. En aquella época directamente me pillé una línea de (creo recordar) T-Mobile por lo que tenía mi número de US. En mis siguientes visitas ha sido bastante fracaso el asunto, ya que he intentado comprar algún SIM allí mismo, de prepago, pero o porque mi teléfono no lo soportaba o por cualquier razón no acababa de funcionar.

Con el paso del tiempo esto ha cambiado y existen muchas empresas que han lanzado sus sistemas de SIM prepago enfocadas a datos, y voy a comentar algunas de ellas, siempre desde el planteamiento de alguien que vive en la UE y se va a US, y con una cifra de datos de 1 GB (que creo que es bastante aceptable para 1 semana fuera de la eurozona).

Primeras opciones:

  • Flexiroam: Tienen un SIM que compras por 30 dólares e incluye 1 GB de datos, que has de consumir en 3 meses. A partir de ahí puedes recargar otro giga por 30 dólares que te durará otros 90 días.
  • WorldSIM: Aunque su foco es el de pago-por-uso, tienen un paquete para América (US y PR) que te da 1 GB durante 30 días por 54 dólares.
  • GO-SIM: Este pack para Estados Unidos te ofrece 1 GB durante 30 días por 49 dólares.
  • GigSky: Por 50 dólares durante 30 días tienes 1 GB de datos.

Más opciones:

  • T-Mobile Tourist plan: Es una opción interesante en la que durante 21 días tienes un SIM funciona para todo (llamadas, sms, datos…). Incluye 2 GB de datos, 1000 minutos a US por unos 30 dólares. A las 3 semanas el SIM “se autodestruye”.

La decisión:

Finalmente mi decisión ha sido la de utilizar el servicio de AlwaysOnlineWireless. Para comenzar compras el SIM (con envío incluido) por 15 dólares. Una vez lo tienes, lo activas y eliges uno de los planes que quieras utilizar, que siguiendo con la línea que llevaba, sería el de 1 GB durante 15 días por 8 dólares (o 3 GB por 23 dólares). No sé si será el mejor servicio, pero es el que cuadra más con mis necesidades, una SIM extra (mi teléfono tiene 2 slot de nanoSIM, así que me va perfecto) que usar cuando lo necesitas y por muy bajo precio.

¿Qué ofrecen las operadoras españolas?

Toda esta búsqueda se ha basado en una decisión de que la operadora que uso, Movistar, tiene unas tarifas bastante malas en cuestión de roaming por Estados Unidos, ya que te da 10 MB al día por 2,5 euros, algo que considero fuera de lo que debería, teniendo en cuenta que por ejemplo Vodafone trata US como Europa, tanto en voz como en datos. Orange, en este caso te da 100 MB por 5 euros/día.

Herramientas para Open Data

Ayer tuve la oportunidad de asistir a una charla de Marc Torres (del Institut Cartogràfic i Geològic de Catalunya) en el que hizo un pequeño taller explicando algunas fuentes de datos y sobre todo herramientas para tratarlos.

Los que me conocéis un poco sabéis que me encanta jugar con APIs y por tanto con datos, y esta charla era un lugar plerfecto para aprender de alguna herramienta que desconociera; obviamente el objetivo estuvo más que superado.

Para comenzar, voy a dejar una serie de sitios desde los cuáles conseguir extraer datos abiertos. Algunos son conocidos y otros no tanto:

Aunque hay cientos de lugares en España (y el resto del mundo) de donde sacar datos, estas fueron las fuentes que usamos en el taller, y la verdad es que hay información muy interesante sobre nuestro entorno y que permiten hacer muchísimas cosas.

Pero quizá lo más interesante para mi (y seuramente para vosotros) son algunas de las herramientas que se trataon y explicaron. Voy a intentar hacer un pequeño resumen de ellas:

  • Tabula is a tool for liberating data tables locked inside PDF files.
    Como bien dice su explicación, esta herramienta lo que permite es subir un fichero PDF, seleccionar un contenido o zona y te lo convierte a datos estructurados (más o menos es 100% fiable, pero depende del PDF).
  • OpenRefine (formerly Google Refine) is a powerful tool for working with messy data: cleaning it; transforming it from one format into another; and extending it with web services and external data.
    Esta herramienta, que como se indica anteriormente era un producto Google, permite subit datos estructurados y filtrarlos y generar un subset más refinado de elementos. Creo que se va a convertir en una de mis herramientas de referencia a partir de ahora.
  • InstaMaps, fes un mapa amb les teves dades fàcilment.
    Con esta herramienta se pueden crear mapas usando como fuente datos abiertos (entre otras cosas). Es una herramienta similar a Google MyMaps o a BatchGeo.
  • import.io: Extract data from almost any website
    Esta herramienta ya la conocía, me parece útil pero creo que sólo para cosas pequeñas, porque si necesitas hacer algo grande se queda corta (la parte gratis, y la de pago me parece cara).
  • Overview Search, visualize, and review your documents. Up to hundreds of thousands of them, in any format.
    Esta es seguramente la herramienta que menos utilizaría, pero es muy interesante para extraer datos de documentos, ya sean metadatos como un extracto de conceptos y temas en los que se hablan en él.
  • vizydrop Data visualization software
    me parece una herramienta increíble para generar gráficos a partir de datos estructurados. Incluso se hizo un ejemplo de datos geográficos que acabana haciendo una especie de mapa virtual de la ciudad de barcelona en los que añadiendo volúmenes en los pntos generaba un para interactivo muy interesante.

Y para acabar, como bonus track del que seguro que con tiempo saco muchas herramientas interesantes, es el Keshif (Data made explorable), una galería de herramientas y datos que te pueden ayudar a encontrar lo que necesitas para visualizar tus datos de la mejor forma. Hay centenares de herramientas y te puedes perder horas viendo ejemplos y galerías.

Reseña sobre el Pinebook

Hace unos días que cayó (vamos, me lo compré) en mis manos un Pinebook, ese pequeño ordenador basado en PINE64 que por 100 dólares te ofrece una máquina bastante razonables. Y digo bastante porque obviamente no es una máquina excepcional, aunque sí por su relación calidad/precio.

Este dispositivo está basado en hardware open source, y vienen con una CPU Quad-Core ARM Cortex A53 64-Bit, junto a 2 GB de memoria RAM y una pantalla de 11 o 14 pulgadas, en mi caso esta última. Un detalle curioso es que el dispositivo sólo tiene 30 días de garantía y que viene con la batería completamente vacía, lo que significa que antes de poderte poner a jugar tendrás que cargarla, algo que al menos la primera vez no fue extremadamente rápido que digamos (tranquilamente estuvo 6 horas…).

A nivel de memoria de disco se nota que los 16GB son pocos, porque ya de buenas a primeras te encuentras prácticamente sin tan siquiera poder actualizar el Linux (Ubuntu Mate) que viene de serie. Además viene en un pequeño maletín de plástico que se agradece, al menos para no tenerlo en casa “encima de cosas”.

Una cosa curiosa que me ha pasado es que si echas la pantalla para atrás al máximo, pesa más la pantalla que el teclado y se llega a levantar ligeramente (ni un dedo). No pasa nada porque las gomas que lo sujetan a la base están muy bien, pero es bastante curioso (vamos, le pesa la cabeza). Otro detalle importante es que el teclado que lleva es inglés estadounidense, por lo que es probable que las teclas (si cambias el idioma a español) no estén en su sitio -en general no es muy problemático-.

El dispositivo no es una máquina como para ponerse a hacer CAD, pero funciona correctamente. Lo primero que me planteé era si instalarle Android 7.1 o dejarle el Linux, y tras varios pensamientos creo que es un dispositivo Linux más que Android (aunque intuyo que funcionará perfectamente y que algún día puede que haga el cambio por probar, y que incluso se quedará con él puesto).

La batería es de 10.000 mAH, lo que de saque da pie a pensar que va a durar bastante, y aún sin haber descargado la batería por completo, tranquilamente podría estar cerca de las 6 horas, ya que consume muy poco. Obviamente esto dependerá del uso que se le de, que no es lo mismo tenerlo con vídeos que con un editor de texto.

A nivel de velocidad, potencia o como queráis llamarlo, no es el ordenador más rápido del mundo… todo lo contrario, cuando abres una aplicación que requiere unos pocos recursos, automáticamente se queda un poco tonto y se nota que no es todo lo que puedes esperar de un portátil “normal y corriente”. Eso no quita que para aplicaciones como LibreOffice o Firefox no funcione bien, que lo hace, lo que lo convierte en un buen ordenador para los más pequeños. Además, viene de serie con Scratch, para que comiencen a aprender a programar (y qué menos en una máquina preparada para ello).

A nivel de conectividad viene con Bluetooth y WiFi, esta última muy correcta y que no ha dado problemas en ningún momento. A nivel físico es una máquina de plástico, como es de esperar. Se calienta un poco en la zona donde está principalmente el procesador, pero tampoco de una forma exagerada.

Seguramente la utilidad que le voy a dar es la de meterle un LAMP y tenerlo como máquina local para poder jugar con proyectos o cosas que necesite tener en local. Seguramente no es para lo que está pensado, pero al menos seguro que lo usaré con frecuencia.

A partir de aquí poco más a decir; si quieres una máquina sencilla, no muy potente pero muy aceptable para trabajos de navegación o de edición de texto, y sobre todo para los más pequeños, es la máquina ideal, barata y útil.

Desinstalar paquetes problemáticos de un Synology

Desde hace varios años que trabajo en casa con un par de Synology DiskStation DS216se. Es una buena manera de tener backups en casa con un gran panel de gestión y de forma sencilla. Seguramente ahora tomaría la decisión de hacer algunos cambios (y probablemente los haga) como añadirle discos SSD que he tenido la posibilidad de comprobar con clientes y amigos, pero es lo que hay.

Uno de los problemas que me he encontrado en uno de los que tengo es la imposibilidad de desinstalar un paquete desde el propio panel. El problema estaba (seguramente) en que en una primera desinstalación algo falló y se quedó colgado y a medias. Al intentar desinstalarlo me decís que no podía acceder al MariaDB, pero si accedía por CLI ya no existían las bases de datos ni nada. Estaba corrupto el sistema.

Tras probar y probar finalmente decidí que la mejor solución era desinstalar los paquetes manualmente por bash, así que activé el SSH y me metí en el sistema. Para esto, lo primero que hay que tener es acceso SSH, que está en el Panel de Control -> Terminal y SNMP. Allí se activa la opción SSH y se aplican los filtros del Firewall. Si dejáis el puerto 22 por defecto la cosa será muy compatible con todo.

Una vez esté activado el SSH, lo siguiente es entrar por un terminal (tipo el Putty), entrar en vuestra IP por el puerto 22, con vuestro usuario (y teniendo permisos de root, que os hará falta).

Lo siguiente es ir a estas carpetas y erradicar todo su contenido:

  • cd /volume1/@appstore
  • sudo rm -rf nombredelpaqueteaeliminar
  • cd /var/packages
  • sudo rm -rf nombredelpaqueteaeliminar
  • cd /usr/local
  • sudo rm -rf nombredelpaqueteaeliminar

Una vez hecho esto, podéis volver al panel del Synology, entrar en la zona de paquetes y ya os habrá desaparecido el paquete por completo.

Community Managers ¿son rentables?

¡Hola amigo! Hoy te voy a demostrar si esa moda tuya de tener a alguien cobrando por hacer de Community Managers es rentable o no. Y es que en lo que respecta a Internet, todo se puede medir.

Sé que con este artículo puedo ganarme muchos enemigos, y la verdad es que el origen de lo que voy a explicar aquí no venía por la pregunta de sí es o no rentable alguien que gestiona las redes sociales sino que venía por la posibilidad de medir o de tener cierta inteligencia en Google Analytics con respecto a las redes sociales (en primera instancia, Twitter).

El pasado viernes en la clase del Postgrado Web Analytics comenzamos a medir la información de las fuentes de tráfico. Uno de estos informes es el de los referral y en él encontramos, por norma general, el tráfico que llega desde Twitter, Facebook y demás. En principio estos datos deberían ser fiables (luego os comentaré cómo mejorar esa fiabilidad) y partiendo de estos datos salieron dudas.

Si entramos en Google Analytics, seleccionamos un sitio web, y nos vamos al menú a Fuentes de Tráfico -> Fuentes -> Referencias tendremos un bonito listado de fuentes, entre la cuales suele aparecer [t.co] y [facebook.com]. Como decía antes, voy a focalizarme en Twitter y su acortador [T.CO], que es la forma de poder medirlo. Así que si entramos en esta fuente obtendremos una lista de las Rutas de Referencia (aká, la URL) que se han pulsado en el acortador.

Estos datos son de varios meses y podemos ver cómo algunos de los enlaces han conseguido bastante relevancia hasta conseguir más de 4.000 visitas. Además también podemos ver que hay más de 13.000 enlaces distintos del acortador de Twitter, lo que supone, en principio, un trabajo bastante elevado de gestión.

Un Community Manager ahora te diría que es una persona extraordinaria porque te ha generado más de 300.000 visitas desde Twitter en unos pocos meses… pero no es cierto, ya que estos enlaces pueden haberse generado gracias al botón de compartir o similares… así que, primer punto: ¿cómo puedo medir el trabajo propio de esta persona? La respuesta es relativamente sencilla, y es un pequeño truco que podemos aprovechar de Google Analytics: el parámetro utm_content. Según la ayuda, significa lo siguiente:

Campo utilizado para las pruebas del contenido A/B y los anuncios orientados a la Red de Display. Utilice utm_content para diferenciar los anuncios o enlaces que llevan a la misma URL.

Aunque esto implica algo más de trabajo, podríamos montarnos un sistema sencillo que permita controlar las páginas de destino de los tweets generados. Para ello, cuando añadamos uno, deberíamos hacer algo tal que así:

Tweet Original:

Acabo de escribir un tweet sobre los Community Managers http://javiercasares.com/blog/rentabilidad-community-manager/

Tweet Mejorado:

Acabo de escribir un tweet sobre los Community Managers http://javiercasares.com/blog/rentabilidad-community-manager/?utm_content=201305061000+Community+Managers&utm_source=twitter.com

La diferencia entre uno y otro es que el segundo incorpora dos parámetros en la URL:

  • utm_content = 201305061000+Community+Managers: Con esto podemos incluir una fecha y hora (año mes dia hora minuto) seguido de un texto que identifique el enlace del tweet.
  • utm_source = twitter.com: COn esto podemos sobre escribir la fuente original del tweet, dejando de lado el acortador de twitter [t.co] y sustituyendo esa información por el propio twitter [twitter.com]

Con este sistema, entonces, podrás diferencias tus entradas de las que se hagan por otros métodos. Además, si se hace un informe (ahora en el que la fuente es [twitter.com] y no [t.co]) en el que indicamos la página de destino y le incluimos una dimensión secundaria con el Contenido del anuncio (que es el valor del parámetro utm_content) tendremos información exacta del trabajo que ha realizado concretamente nuestro Community Manager, incluyendo, y esto es importante, únicamente sus tweets y el ruido que haya generado (con sus retweets, o sus citas).

Vale, este es uno de los puntos que quería tratar, pero con esto simplemente tenemos información de lo que hacen, pero no de la rentabilidad que tienen. Por norma general muchos de los sitios web tienen Google Adsense, y una de las cosas interesantes es que como se puede relacionar Google Adsense con Google Analytics tenemos un detalle interesante: saber cuánto dinero generan los tweets.

Para ello en los mismos informes en los que estábamos sólo debemos activar la opción Adsense y veremos los ingresos. Particularmente no me convence esta opción porque no se pueden relacionar datos, así que lo mejor es crearse un informe personalizado en el que se incluyan, principalmente, datos como las visitas, páginas vistas, tasa de rebote e ingresos…

Para que os hagáis una idea, según el propio Google Analytics, los ingresos en publicidad de Adsense generados desde Twitter en los últimos meses han sido de poco más de 90 dólares (unos 80 euros). Vale, ahora podéis decirme que también hay publicidad (lo que significa que podemos sacar una media de ingresos por CPM) y que si hemos tenido en varios meses más de 400.000 páginas vistas, a una media de, por ejemplo, 1 euro de CPM, habríamos generado unos 400 euros. Vale, 400 euros de Display + 80 euros de Adsense: 480 euros en un término de varios meses. No da para pagar ni a un becario.

En fin, todo es medible, las redes sociales también, y ello implica que las modas pasajeras pueden ser muy peligrosas.

Los DNAME en las DNS

Aunque ahora mismo es tan sólo una propuesta, creo muy acertada esta nueva posible entrada de las DNS porque, sobretodo a nivel de rendimiento de WPO podría dar un salto cualitativo en cuanto a determinadas acciones que hacemos habitualmente con los dominios, más concretamente con las redirecciones. Incluso, he de añadir, para reducir el impacto de la cantidad de líneas que puede haber en los servidores DNS.

Para situarnos estoy hablando de la propuesta del RFC 6672 (DNAME Redirection in the DNS) que propone incorporar una entrada nueva llamada DNAME.

Para no entrar en detalles muy raros, voy a intentar poner un caso para ver el sentido que tiene. Imaginad que tenemos dos dominios iguales, con las mismas entradas DNS. Por ejemplo [example.com] y [dominio.es]. Dado este caso, en que los dos dominios son exactamente iguales (a nivel DNS)… ¿tiene sentido mantener dos copias de las entradas DNS? ¿No sería más fácil decir que las entradas DNS de [dominio.es] son una copia de las de [example.com] y simplemente cambiando las del .com que se actualizase todo?

Pues básicamente este es el objetivo de la entrada DNAME. El ejemplo visual (los que tocáis mucho las DNS seguramente lo pilléis enseguida:

    QNAME            owner  DNAME   target         result
    ---------------- -------------- -------------- -----------------
    com.             example.com.   example.net.   <no match>
    example.com.     example.com.   example.net.   [0]
    a.example.com.   example.com.   example.net.   a.example.net.
    a.b.example.com. example.com.   example.net.   a.b.example.net.
    ab.example.com.  b.example.com. example.net.   <no match>
    foo.example.com. example.com.   example.net.   foo.example.net.
    a.x.example.com. x.example.com. example.net.   a.example.net.
    a.example.com.   example.com.   y.example.net. a.y.example.net.
    cyc.example.com. example.com.   example.com.   cyc.example.com.
    cyc.example.com. example.com.   c.example.com. cyc.c.example.com.
    shortloop.x.x.   x.             .              shortloop.x.
    shortloop.x.     x.             .              shortloop.

El objetivo es que el campo “target” sea como el sustituto del patrón que se le pasa. De esta forma, poniendo la tercera línea de ejemplo, tendríamos que, partiendo de la base de [a.example.com] el dominio sería [example.com] y el DNAME sería [example.net], si hacemos un “sustituir” de [example.net] por [example.com] nos quedaría [a.example.net].

El planteamiento, a nivel de similitud, es como un CNAME con esteroides, ya que no deja de ser como un alias, pero que además sustituye fragmentos de las entradas DNS por otras que pueden ser de otro dominio.

Un detalle interesante es que, aunque no se recomienda su uso, se podría a llegar a utilizar el “wildcard” (o sea, el [*.example.com] para sustituir grandes cantidades de entradas DNS por otras. No se recomienda el uso porque podría invalidar el DNSSEC, pero la verdad, teniendo en cuenta la poca penetración que tiene, tampoco tengo claro que, para la mayoría, sea un problema.

Aunque no deja de ser una propuesta (en mi opinión muy interesante) no tengo claro que sea algo que se vaya a implementar rápidamente. Seguramente dependerá más de los ISP que comiencen a implementar servidores que lo soporten, pero, tampoco es algo que creo que sea muy recomendable para la gran mayoría de los usuarios, ya que un pequeño error puede provocar la invalidación de las DNS. Así que, lo más probable es que para añadir una entrada de este tipo se tengan que hacer varias validaciones “automáticas” para controlar las posibles cagadas poniendo estas entradas.

Dominios reservados

¿Cuál es el dominio que no existe y que deberíamos usar siempre que hacemos referencia a una dirección URI que no existe? Pues hay varios, no os lo voy a negar, y todo depende de las necesidades que tengamos.

Y es que existe el RFC 2606 que habla de esto mismo… los Reserved Top Level DNS Names. Básicamente este documento nos informa de los 4 TLD que hay cuando queremos hacer referencia a pruebas.

  • .test: Se recomienda para probar DNS.
  • .example: Se recomienda cuando en un documento se hace referencia a alguna dirección.
  • .invalid: Se recomienda cuando se hace referencia a dominios incorrectos o errores.
  • .localhost: Este es el único que técnicamente no es del todo un error o un ejemplo, ya que se puede utilizar internamente en las DNS para hacer una autollamada o hacer uso de direcciones IP privadas sobre él.

Claro está, esto es siempre para los TLD, pero ¿qué ocurre en los segundos nivele? Vamos, en lo que normalmente conocemos como un “dominio”? Para ello el sistema es claro: example.com, example.net y example.org.

Hay otros TLD de los nuevos que, ya de base, llevan una serie de limitaciones. Por ejemplo el .INFO define el dominio [example.info] como un dominio .info reservado en este caso para la IANA. Esto mismo ocurre con los dominios .biz reservados que excluyen el [example.biz]. En principio, el resto de dominios, como desde hace tiempo, son asignados y aprobados por IANA, ocurre lo mismo.

En el caso de los ccTLD no se especifica nada a nivel general, sino que el bloqueo de los dominios queda en manos de cada uno de los organismos. Por ejemplo, en NIC.ES, el organismo que regula los dominios “.es”, quedan prohibido según su documentación el [dominio.es]. Hay otros tantos, pero este parece ser el único que el organismo no usará (ya que aunque está prohibido, el [dominio.es] sí que lo utilizan como promoción, saltándose sus propias reglas (como decenas de veces han hecho en e pasado).

En otros casos, como por ejemplo el dominio francés .FR (y todos los que gestiona el organismo) no plantea un dominio de segundo nivel reservado para este uso. Sí que es cierto que disponen de varios dominios reservados, pero concretamente para hacerse eco de un ejemplo de uso no.

Así que a partir de ahora, si vas a escribir una entrada hablando de dominios de ejemplo, o tienes que referirte a ellos, ya sabes que has de analizar de forma diferente lo general de los dominios territoriales.

Mis plugins para Firefox

De tanto en tanto se hace recurrente en mi vida una pregunta que me hacen: ¿Y tú que navegador usas? La respuesta es sencilla: Firefox. Y es que uso Firefox desde prácticamente cuando aún era Netscape Navigator. Y luego, viene la siguiente pregunta: ¿Y por qué Firefox? Pues básicamente por las ampliaciones que lleva. Y entonces comienzan las discusiones con los amantes de Chrome. En ese momento, casi antes de comenzar, simplemente me voy.

El hecho de usar Firefox (incluso os puedo decir que desde hace unas semanas ya me he lanzado a la piscina porque usaba primero las betas, luego Aurora y ahora Nightly de 64 bits -lo que significa que en este momento estoy con una alpha de Firefox 21-) viene dado principalmente por su lista de “plugins” (o addons).

¿Y cuáles son esas ampliaciones que utilizo? Pues es la siguiente:

  • Adblock Plus: Simplemente para no ver publicidad. Que conste que no siempre lo tengo activado, pero para desarrollar va bastante bien.
  • Advertising Cookie Opt-out: Pasando de las cookies de Adsense y Doubleclick.
  • Beef Taco: pasando de las cookies de otra decena de sitios de publicidad y de basurilla.
  • Classic Retweet: Lo siento, pero añoro el primer Twitter…
  • ColorZilla: Permite seleccionar cualquier color de una web. No lo uso mucho, que conste.
  • DNS Flusher: Cuando trabajas con muchas máquinas en desarrollo, preproducción y producción se vuelve algo básico la limpieza de las DNS.
  • Firebug: Herramienta básica del desarrollador.
  • Flash Video Downloader: Útil en algunas ocasiones. No lo suelo usar casi nunca.
  • Ghostery: Informa de todos los “spyware” que intentan colarte las webs…
  • HTTPS Everywhere: El nombre ya lo indica todo.
  • Live HTTP Headers: Un clásico para ver las cabeceras. Básico para el WPO.
  • Long URL Please: Muestra las URL de acortadores en su versión completa.
  • MeasureIt: Para medir anchos y altos de elementos web.
  • LessChrome HD: Oculta el menú. Pensando en saltar al LessChrome Modified.
  • Page Speed: Otro de los complementos básicos del WPO.
  • PDF Viewer: Muestra los PDF integrados en el navegador, sin el plugin de Adobe.
  • Pearl Crescent Page Saver Basic: Capturador de pantalla o de toda la página.
  • Pocket: Si usas Pocket, es necesario tenerlo también en el navegador bien integrado.
  • Web Developer: La barra básica en mi vida… si veo un Firefox sin ella, la instalo, porque lo digo yo.
  • YSlow: Otra de las herramientas clave en el WPO.

Tengo una lista de plugins pendientes de usar y/o de decidir si se quedan o no se quedan en mi lista de establecidos…

  • Cache Status: permite gestionar la caché de forma rápida (algo también de uso habitual en mi caso).
  • Modify Headers: A veces no sólo es necesario “ver” cabeceras, sino que hay que “tocarlas”.
  • Poster: Otro más que tiene que ver con las cabeceras. Lo veo muy completo, pero no sé si es lo que necesito, aún.

Vuelvo a decir, ya sé que Chrome y Opera tienen muchos plugins y muchas cosas… pero me gusta el zorro, ¡qué le vamos a hacer!