Explicamos el porqué del archivo robots.txt y como se construye dicho archivo.

Para comenzar tenemos que comentar lo que son los robots y qué función cumplen dentro de la red de redes.
Un robot es un programa más o menos complicado que se dedica a rastrear nuestras páginas webs y guardar su contenido en una base de datos y seguir los enlaces que tengamos a otras páginas web. Esto nos beneficia pero también nos puede perjudicar, ya que a veces no nos conviene indexar ciertas páginas de nuestras webs.

Actualmente los robots actúan de tal forma que lo primero que hacen es buscar en la raíz de nuestra página si tenemos un archivo llamado robots.txt, si lo encuentra lo lee y sigue las directrices que en él se encuentran, si no lo encuentra empieza a rastrear toda la web.

Por este tema es importante crear bien este archivo y pensar que páginas queremos que sean rastreadas y cuáles no, ya que las que no sean rastreadas no serán indexadas en los navegadores.

Este archivo es muy fácil de construir tan solo tienes que saber ciertas pautas y podrás hacerlo sin problema.

El archivo robots.txt puede construirse para que se aplique solo a los robots de determinados buscadores.

Pasamos a escribir un ejemplo para ir explicando las posibilidades:

User-agent: * # aplicable a todos los robots
Disallow: / # impide la indexacion de todas las paginas

En este ejemplo los robots no podrían indexar ninguna pagina del dominio.
User-agent lo que nos dice es a que robots se les aplica las características que le siguen debajo. Si usamos el * estamos diciendo que esas reglas son aplicables para todos los robots. Pero también podemos hacerlo para determinados robots, como ves en el siguiente ejemplo:

User-agent: lycra
User-agent: BadBot
Disallow: /

En este ejemplo los robots lucra y BadBot tendría prohibida la indexación de cualquier pagina del dominio.

El disallow nos dice los archivos o carpetas que queremos que no sean indexadas. De esta forma podríamos hacer un archivo como este:

User-agent: *
Disallow: /tmp/prueba.html
Disallow: /logs

Este ejemplo lo que haría sería prohibir la indexación de la carpeta logs y el archive prueba.html a todos los robots.

Con esto ya podríamos realizar un archivo robots.txt perfectamente válido, pero también existen términos para determinar en qué horas queremos que esos robots rastreen nuestras páginas. La forma de construirlo es la siguiente:

Visit-time: 0300-0400 #esta opción obligaría a rastrear las paginas solo de 3 am a 4 am

Recuerda que las horas siempre se colocan en Greenwitch

Por otro lado podemos decirle que indexe una página o varias cada equis tiempo, para ello se utiliza la siguiente sintaxis:

Request-rate: 1/30

Siendo el 1 el número de documentos a rastrear y el 30 el tiempo que transcurre entre un rastreo y el siguiente.

Es importante saber que no puedes dejar líneas en blanco ya que no funcionaria, el robots dejaría de leer en el momento que encuentra la línea en blanco.

Otro aspecto que no he comentado antes pero que habréis notado es que los comentarios ser realizan utilizando la #.

Un ejemplo completo seria el siguiente:

User-agent: *
Disallow: /tmp/prueba.html
Disallow: /logs
Visit-time: 0300-0400

Esto permitirá a todos los robots rastrear todas las paginas menos prueba.html y la carpeta logs, además solo podrían indexar de 3 de la mañana a 4.

Freepik, un motor de busqueda de diseños gratuitos, interesante herramienta para diseñadores Hace poco me han escrito sugiriendome a Freepik como un buscador de diseños gratuitos , y en así, de acuerdo a su filosofía de trabajo Freepik es ...
Joomla 1.7.3 El equipo de trabajo del popular sistema de gestión de contenidos, Joomla, dispone de una nueva actualización de seguridad. Joomla 1.7.3 soluciona ...
Change default directory page Most probably you have been wondering how the Webserver decides which page from your site to use as a main/default page of your site. There is a di...
Cambios en su buscador de imágenes de Google Cerca de un año después de su última actualización, Google da a conocer cambios en su buscador de imágenes. Entre los principales cambios aportados...
RIM responde a los Mitos sobre Blackberry No es nueva noticia que RIM lo está pasando relativamente mal en algunos países y que tiene malas noticias como que grandes empresas o aplicaciones im...
Campaña Adwords – Primer paso creando tu anuncio Si ya tienes un sitio Web diseñada, creado, funcionando y totalmente optimizado, tienes una buena opción para hacerlo funcionar como tu fuente particu...
Funciones y propiedades básicas de JavaScript JavaScript incluye numerosas propiedades y métodos muy útiles para cada uno de los tipos de variables y clases que define. Cadenas de texto ...
Herencia La herencia entre objetos es un concepto que nos permite definir un nuevo objeto a partir de las cualidades físico-actitudinales (propiedades y método...
Microsoft dice que Windows 8 final será lanzado en octubre Steven Sinofsky, el jefe de Windows en Microsoft, describió brevemente el camino hacia la versión Release to Manufacturing (RTM) de Windows 8, dando p...
Rastreo e Indexación de una Web a través de su Motor de búsqueda según Google ¿Es fácil para Google rastrear tu web? Internet es un lugar enorme en constante crecimiento en el que Google debe enfrentarse con sus recursos a una c...
Configurar el archivo Robots.txt
Tagged on: