
RFC6596: The Canonical Link Relation
·
Pues ahora ha aparecido el RFC6596: The Canonical Link Relation en el que se habla sobre el «famoso» rel-canonical propuesto por Google hace ya un tiempo. Read More →

·
Pues ahora ha aparecido el RFC6596: The Canonical Link Relation en el que se habla sobre el «famoso» rel-canonical propuesto por Google hace ya un tiempo. Read More →

·
Hoy la ICANN ha presentado lo que va a ser la revolución de Internet: nuevos dominios. Read More →
·
Decenas de veces te habrán dicho que si quieres posicionar imágenes en Google hay que poner bien los textos alternativos (el famoso «alt») en las imágenes. Pero ¿es esto cierto? ¿Cuándo y cómo hay que usar los textos alternativos? Ahora que llega el HTML5, el W3C, organismo que establece los estándares de los sitios web, han planteando un documento llamado técnicas para ofrecer textos alternativos útiles en el que se explica con bastante detalle el cómo hay que redactar esos textos y en qué casos. Hay que tener presente que los textos alternativos se plantearon inicialmente como una forma textual… Read More →
·
En ocasiones queremos que nuestro sitio siempre tenga activado o desactivado que las URL empiecen por http:// o https://, sobre todo porque cuando está un sitio en modo seguro y se cargan cosas no seguras comenzamos a recibir mensajes de error o de inseguridad que no gustan nada a nadie. En el caso de Apache HTTPD hay un sistema muy sencillo que nos permite redirigir cualquier tipo de petición de un lado a otro de una forma rápida y sencilla… En el .htaccess podemos añadir unas líneas tal que así: Código para que siempre tenga http seguro: RewriteEngine On RewriteCond… Read More →
·
Migrar un sitio web es una tarea que en principio parece sencillo pero puede convertirse en una tarea un poco más compleja. En este caso voy a explicar lo que sería un cambio de «hostname» sencillo, sin cambiar el resto de estructura de URL. En general una migración de un dominio es tan sencillo como migrar simplemente con una redirección 301 (redirección permanente), pero hay que analizar y preparar la redirección con unos meses de antelación. Y es que una redirección habría que plantearla con unos 6 meses de antelación si queremos hacerlo completamente correcto. Lo primero que hemos de… Read More →
·
Hace un año conocíamos una faceta desconocida de uno de los animales que considerábamos más pacíficos y carismáticos: el Panda. Pero Google le ha dado otro sentido a este entrañable animalito convirtiéndose en uno de los mayores dolores de cabeza para algunos en la red de redes (porque para otros sigue siendo ese animalito cariñoso que nos ha hecho seguir subiendo y subiendo…). Ahora lleva a nuestras vidas otro animal que, al igual que el Panda, vive su vida en colores blanco y negro: el Pingüino. Y es que, como en la informática hay sólo ceros y unos, parece que… Read More →
·
No sé si sabes que desde hace unos años Google ya no ostenta en exclusiva la patente del PageRank; me explico. Cuando Larry Page, por aquellos 1997-1998 patentaba el PageRank, la fórmula que básicamente dice que el peso de los enlaces hace que una página tenga relevancia lo hizo no para él o para Google Inc. sino para la Universidad de Stanford. Hace unos años la patente quedó fuera de los ámbitos de uso exclusivo por parte de Larry y su compañía, lo que supone que, aunque tienen derechos de uso, el objetivo a muy corto plazo es no usar… Read More →
·
Último bloque de presentaciones del día, en este caso va a ir relacionado con la inteligencia colectiva en contenidos y temas multimedia. Para comenzar tenemos PodCastle and Songle: Crowdsourcing-Based Web Services for Retrieval and Browsing of Speech and Music Content de Masataka Goto, Jun Ogata, Kazuyoshi Yoshii, Hiromasa Fujihara, Matthias Mauch y Tomoyasu Nakano). Existen los sitios PodCastle (para voz hablada) y Songle (para música) que se usan para el reconocimiento multimedia. El primero, por ejemplo, permite la lectura de un contenido e interpretar sus textos. Los usuarios pueden ayudar y colaborar corrigiendo las palabras que sean erróneas, eligiendo, por… Read More →
·
Seguimos con las charlas de inteligencia colectiva (más concretamente con su uso en temas relacionados con las búsquedas). Retomamos las charlas con Crowd Sourcing Literature Review in SUNFLOWER (de Sihem Amer-Yahia). La idea es generar contenidos de forma automática en base a resumir otros contenidos junto a la inteligencia colectiva. La primera parte lo que intenta es encontrar contenidos y buscar contenidos relacionados, generando distintos grupos y palabras clave. La segunda parte es la de generar un resumen de los contenidos (procesar, clasificar, reescribir…). La última parte es la que afecta a las personas. La idea es que en esta… Read More →
·
Seguimos con las presentaciones… ahora empiezan las charlas más formativas y técnicas. Comienza la charla Social-Textual Search and Ranking (de Ali Khodaei y Cyrus Shahabi). En los últimos años las redes sociales se han disparado, y tenemos una serie de relaciones como los intereses similares que podemos conseguir gracias a nuestros amigos o a grupos. Todo esto básicamente conseguido gracias a la llamada Web 2.0. Una pregunta importante a hacernos es «qué es la relevancia social». Cómo podemos relacionarla con la relevancia textual (la que usan los buscadores). Esto también va unido a la relación entre pares de documentos. Para… Read More →
·
Y comienza un nuevo día en Lyon en el evento WWW2012, en este caso con el Workshop CrowdSearch 2012: First International Workshop on Crowdsourcing Web Search . Si ayer los temas iban más enfocados a la calidad de los contenidos, a combatir el web-spam y similares, hoy toca el día a los enlaces, a su calidad y, sobre todo, a su socialización dentro de la red de redes. Para comenzar Loretta Anania, la que era responsable de buscadores de la Unión Europea comienza explicando la importancia sobre los buscadores y sobre la innovación que han llevado a cabo. También presenta… Read More →
·
Y para acabar el día, tras las presentaciones sobre Web Quality, y las de credibilidad y confianza, ahora le llega el turno a la detección y prevención de abusos (y spam). La primera charla es Detecting Collective Attention Spam (de Kyumin Lee, James Caverlee, Krishna Kamath y Zhiyuan Cheng). Aparecer en la página principal de Youtube, eventos como el Año Nuevo generan marketing viral y atención colectiva, consiguiendo ser «trend» (Google Trends o Twitter Trending Topic). En general los spammers van a por momentos de atención que se convierten en fenómenos. Primero se consigue información de los temas con tendencia… Read More →
·
Y tras las presentaciones sobre Web Quality, ahora tocan las de credibilidad y confianza. La primera charla es Game-theoretic Models of Web Credibility (de Thanasis Papaioannou, Katarzyna Abramczuk, Paulina Adamska, Adam Wierzbicki y Karl Aberer). Uno de los mayores problemas hoy en día es la creciente dificultad de detectar la credibilidad de los contenidos en Internet. Puede haber factores económicos que pueden incluir en la calidad o neutralidad, por ejemplo. Los primeros acercamientos hacen referencia a estudios empíricos, a mecanismos de repitación /pero hay que tener en cuenta la información histórica, que es muy relevante) y, lo que se nos… Read More →
·
Y como lo prometido es deuda, comienzo con las charlas de hoy, concretamente las del WebQuality 2012. Comenzamos con un cambio en el programa, así que toca A Breakdown of Quality Flaws in Wikipedia (Maik Anderka y Benno Stein). La idea es investigar la calidad de la Wikipedia, ya que es muy grande: tiene cerca de 90 millones de páginas, 22 millones de artículos y es la sexta web más visitada del mundo. Para la calidad hay algunos elementos como que cualquiera puede editarla, los autores son muy distintos y las ediciones nos e revisan antes de la publicación. Esto… Read More →
·
Hoy estoy en Tortosa (Tarragona) en las charlas que la Cambra de Comerç de Tortosa organiza junto a Empatica en las charlas de Internet i Empresa. Me ha tocado estar en la parte de las charlas de SEO, dando una breve charla de poco menos de una hora en la que he explicado un poco todo a nivel introductorio, Buenas Prácticas y cómo evitar penalizaciones. Tal y como he prometido a los asistentes a la charla, os dejo la presentación que he hecho para descargar. Agradecer a la organización y a los asistentes sus caras de no entender nada (cosas… Read More →
·
En unas semanas comienza el I Master SEO Profesional que dirige Miguel López (TallerSEO) y que se celebrará en Madrid. A diferencia de otros cursos y formación, este está enfocado al 100% a todo lo que tiene que ver con optimización de sitios, además de todo lo que hay alrededor de ello. No sé si puedo decirlo o no, pero os voy a adelantar algunos de los ponentes y algunos de los temas que se tratarán. Por ejemplo Miguel Pascual explicará las distintas fases de un proyecto, José Moreno hablará, entre otras cosas de reputación digital, Edgar Sánchez nos dará… Read More →
·
Puede que sea cosa mía, pero haciendo una revisión de los cambios de 2010 y 2011 me doy cuenta de que el SEO se ha estancado… estancado en cuanto a que los buscadores van metiendo cosas pero no van muy relacionadas tanto con la evolución del SEO como lo ha estado haciendo entre 2005 y 2010. Sí, ya sé que el año pasado entró en nuestra vidas un animal muy entrañable como es el Panda, un algoritmo que ha hecho mucho daño a un determinado tipo de sitios, sitios que básicamente «no hacían las cosas bien» (y entiéndase bien por… Read More →
·
El SEO puede evolucionar, puede cambiar para bien o para mal, pero hay algunos elementos que nunca podemos despreocupar y sobre los que tenemos que tener siempre un control absoluto. robots.txt Es básico tener el fichero de robots.txt bien controlado. Primero, ha de existir. Segundo, debe tener como mínimo la línea User-Agent: *. Tercero, debería tener siempre, al principio de todo, la línea indicando el Sitemap. Código 404 Todo dominio tiene que tener su propia página de error. Si entras en example.com/0123456789 debe devolver una página (sin hacer redirecciones o cosas intermedias) un código 404. La página resultante es recomendable… Read More →
·
Con mucha frecuencia me llegan correos de personas que tienen un sitio web pequeño y que han sido penalizados (o degradados) por Google de alguna manera. Hoy, tomando como ejemplo uno de estos correos, voy a explicaros cómo se puede arreglar una penalización (de las más sencillas) con tan sólo utilizar Google como herramienta (sin Webmaster Tools o Analytics). Esto significa que lo único que necesitamos es un navegador y un poco de imaginación. El sitio en cuestión es juegostt.com y su problema es que ha caído el tráfico mucho. Lo primero que he hecho es darle una ojeada al… Read More →
·
Hablar de sistemas antispam en los resultados de búsqueda es algo de lo que he hablado muchas muchas veces en los últimos meses. Cada buscador busca sus propios sistemas para mejorar el análisis de los sitios web, ya sea mediante factores humanos, analizando las propias páginas y con decenas de métodos para aumentar la calidad del índice. Pero sin duda este sistema de Microsoft me ha sorprendido ya que se basa en el propio PageRank de Google. La patente Locally computable spam detection features and robust pagerank de Microsoft deja bien claro que hoy en día tanto el PageRank como… Read More →