Nos fascinan los robots porque son reflejos de nosotros mismos.
Revisamos el fichero robots.txt, una forma muy sencilla de mejorar tu SEO y que muchos profesionales aun confunden como una medida de seguridad ¡Descubre todos sus secretos!
Hace unos episodios os contaba que había podido probar una nueva extensión SEO para Joomla que me sorprendió mucho, no sólo por lo bien pensada que estaba con respecto a la gestión del SEO de nuestros sitios, sino también por la calidad de su código y en general la limpieza de su desarrollo. Pues bien, finalmente ya está disponible la versión beta y espero que puedas echarle un vistazo porque merece mucho la pena:
Ya está disponible la edición de mayo la Joomla Magazine. En esta ocasión hay varios artículos interesantes de los que ya hemos hablado en el podcast como el de campos personalizados o Visual Studio Code
¡Estáte al día de la actualidad Joomla suscribiéndote a la newsletter de ManualesJoomla.es!
Es un fichero que le indica a los buscadores qué partes de nuestro sitio web deben visitar y cuáles tienen que ignorar.
En definitiva, es una herramienta SEO para racionar mejor nuestro presupuesto de rastreo.
En ningún caso el fichero robots.txt es un sistema de seguridad para impedir que los buscadores indexen partes de nuestro sitio o para que usuarios no identificados puedan acceder a él.
Es más, si en los factores de indexación que tiene un buscador, ve que tiene que indexar un enlace que aparece en el robots.txt, no hará caso de nuestras indicaciones y lo indexará de todos modos.
El fichero robots.txt es un fichero de texto y podemos usar cualquier editor de textos en nuestro ordenador para generarlo.
Joomla! se distribuye con un fichero de muestra llamado robots.txt.dist que podemos usar simplemente renombrándolo a robots.txt.
La sintaxis del fichero robots.txt es muy sencilla y tenemos varias palabras clave o comandos que podemos usar:
User-agent:
Allow:
Disallow:
Sitemap:
Y después de ellos pondremos la ruta de la url que queremos añadir.
Podemos usar comodines como * para indicar cualquiera.
Para comprobar que el fichero robots.txt no tiene fallos podemos usar el comprobador del fichero que está incluido en las herrramientas de Google Search Console:
https://www.google.com/webmasters/tools/robots-testing-tool
En esta herramienta, además de comprobar que el contenido del fichero robots.txt no tiene errores sintácticos, podemos probar urls de nuestro sitio y ver si las urls son o no accesibles en función de estas reglas.
Si bien podemos editar fácilmente el fichero robots.txt con nuestro editor de texto favorito (¡incluso Visual Code!) y acceso por FTP al sitio, no podemos negar que siempre es más cómodo contar con herramientas específicas que nos ayuden. Aquí os dejo algunas extensiones que os pueden ayudar a editar el fichero:
También puedes escuchar el episodio sobre robots.txt que hicimos para el podcast de PrestaRadio.
¿Conocías el fichero robots.txt? ¿Cómo lo haces tú? Cuéntanoslo aquí abajo en los comentarios.
Comentarios gracias a CComment