Analiza la Salud de tu WordPress comercial@webempresa.com

Para hablar de SEO hay que hablar ineludiblemente de robots.txt y del papel que este archivo juega en la política de control de acceso a la indexación del sitio por parte de los bots de los motores de búsqueda.

Este archivo nos ayuda a bloquear o autorizar a los robots de los motores de búsqueda que indexan y rastrean una parte importante de nuestro blog. Si bien que en ocasiones un archivo robots.txt mal configurado puede provocar la pérdida de indexado de los contenidos del blog con la consiguiente pérdida de posiciones.

Optimizar el archivo robots.txt es muy importante y realizar los cambios de forma correcta es el camino hacia un buen indexado por parte de los bots que realizan estas tareas ¡si quieres tener presencia, no se lo pongas difícil!

Una instalación limpia de WordPress viene sin el fichero robots.txt estándar.

Sin embargo suele ser buena práctica añadir uno para que los buscadores sepan como escanear tu sitio.

Un fichero robots.txt en WordPress estándar, puede ser el siguiente:


User-agent: *
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /xmlrpc.php
Disallow: /readme.html
Allow: /wp-content/uploads/
Disallow: /wp-content/plugins/

Simplemente tendrías que crear el fichero robots.txt en la raíz de tu sitio y pegar este contenido.

Luego asegúrate de que puedes verlo desde tu navegador accediendo así: http://www.dominio.com/robots.txt

En este artículo tienes más información sobre como sacar todo el rendimiento al fichero robots.txt

0/5 (0 Reviews)