Hoy abordaremos un clásico del rastreo y la indexación de páginas web: meta robots. Esa etiqueta en HTML que le da una instrucción a los motores de búsquedas, clave para mejorar el SEO de nuestras páginas webs.
Pero antes, como en cada capítulo, un pequeño repaso al mundo WordPress en Galicia y España.
Buen día querido y querida oyente. Un verdadero placer tenerte una semana más en este podcast. Semana además super emocionante dentro del mundo de WordPress porque ya este fin de semana, tenemos WordCamp Madrid.
Yo ya tengo mi maleta lista y salgo mañana para Madrid con muchas emociones. Para mi, es como un hito, un segundo año en un evento simplemente increíble, que definió muchos cambios que implementé en mi desarrollo profesional de este último año.
Si vas a asistir, nos vemos allí. 😉
Esta semana el lunes hubieron 2 meetups, la de Vigo, y la de GalsTech que celebraron este mes en Pontevedra.
Hoy mismo, jueves 04 de abril, nuestras compañeras de Santiago de Compostela nos traen una charla sobre la importancia de las imágenes en una web. La charla la dará Xela Rodríguez, fotógrafa que da unas charlas buenísimas, si estas cerca de Santiago de Compostela, a las 18:45 de la tarde en O Boneco. ¡No te la pierdas!
También tenemos ya fechas y disponibilidad de entradas para el NOS Day en Santiago de Compostela, será el 01 de junio. Evento muy especial, relacionado con el mundo de las startups y vamos: ¡espectacular!.
Y otro evento que tiene una pinta flipante, que ya me apunté y confirmé plaza: #Raiola301 un evento gratuito organizado por Raiola Networks sobre SEO el 03 de mayo.
Es gratuito pero tienes que confirmar tu plaza, así que inscríbete porque el cartel que trae Raiola es perdonar la expresión: ACOJONANTE. Si te gusta el mundo del SEO y estás en o cerca de Galicia, no te lo puedes perder.
Estará MJ Cachon, Liño Uruñuela, Alex Navarro, Marta Romera, Luis Villanueva, Chuiso, Niña del Sur, Marcos Herrera… increíble la cantidad y calidad de los ponentes.
Yo fui al del año pasado de SEO técnico, y me encantó. Será un viernes, lo que es genial para poder organizarte bien.
Nos vemos en A Coruña el 03 de mayo. 🙂

Pues retomemos pues nuestro capítulo. Vamos a volver a un clásico del SEO técnico, una de las primeras cosas que debemos aprender cuando empiezas en este mundillo: Los meta robots.
Es un tema muy sencillo y básico pero que tenemos que tener muy claros los conceptos si no queremos cometer errores, o bien directamente por tus acciones en la web o bien por cualquier modificación que hagas en cualquiera de los plugins SEO que solemos instalar en WP.
Sobre este tema, como en muchos otros ejemplos, Tomás de Teresa tiene un fantástico y breve artículo, que explica muy bien todas las opciones.
Como les contaba en el episodio 6, sobre títulos y descripciones, en las cabeceras de la web <head> en ingles, solemos poner información muy relevante para los buscadores, invisible para el usuario.
Los meta robots son una etiqueta en HTML que le da una instrucción a los motores de búsquedas.
Al igual que el archivo robots.txt, podemos bloquear a los motores de búsquedas, pero en el caso de los robot.txt, algunas directrices pueden ser ignoradas, sobre todo si una URL recibe un link externo y es detectada; mientras que las etiquetas de la cabecera suele ser la mejor forma de controlar el comportamiento de cada URL
Como señala Fernando Maciá en su diccionario de marketing digital de su web de Human Level y cito:
«La meta robots permite controlar la forma en que se debe indexar una página y la forma de mostrarla a los usuarios en la página de resultados de búsqueda.»
Fernando Maciá
Más claro, ni el agua.
Además, como verán, en el robots.txt bloqueamos por completo una URL, mientras que con los meta robots podemos tener una URL que sigue pasando zumo de links o popularidad, pero que decidimos que no aparezca en los índices de Google.
Sintaxis de la etiqueta
Muy sencilla: <meta name=»robots» content=»el valor que queramos»> y estas son las opciones que podemos definir:
noindex, follow
<meta name="robots" content="noindex, follow"/>
En este caso con el noindex le decimos a buscadores NO indexes este contenido pero puedes seguir (follow) los enlaces.
Al seguir los enlaces mantenemos la transferencia de links y zumo de popularidad asociado.
Es la solución más típica cuando quieres evitar que se indexe una URL que puede ser considerada como contenido débil (thin content) o contenido duplicado de otras secciones de tu web.
Muy habitual en los resultados de búsquedas en tu web, que genera un cambio en la URL con el término de la búsqueda. En archivos de etiquetas, autor, etc.
Si tienes Yoast o cualquier otro plugin SEO instalado, haz una prueba, haz una búsqueda en tu WP y revisa el código fuente del resultado. Verás seguramente esta etiqueta en la cabecera.
index, nofollow
<meta name="robots" content="index, nofollow"/>
En este caso lo contrario, le decimos que puede indexar esta URL pero que NO siga los enlaces, por lo tanto no transmitirán de forma habitual su valor.
Como señala Tomás de Teresa, es la combinación ideal cuando no respaldas los enlaces de una URL en concreto, imagina páginas creadas por los usuarios, por ejemplo en un foro.
noindex, nofollow
<meta name="robots" content="noindex, nofollow"/>
Evitamos indexación y seguir los enlaces. Es una forma de bloqueo total de esa URL. No es muy habitual su uso.
Index, follow
Existe una cuarta etiqueta que es index, follow pero esta etiqueta no hace falta ponerla porque es el comportamiento normal, en la que se identifica una URL se siguen los enlaces y se indexa el contenido en buscadores.
¿Hay diferencias entre el robots.txt y los meta robots a nivel de rastreo?
Como nos cuenta Fernando Maciá, si claro, recordad que el robots.txt suele ser uno de los primeros archivos que revisarán los buscadores.
Si marcamos un disallow a un directorio dentro de ese archivo, en principio Google no perderá tiempo rastreando ese directorio, mientras que si llega a una URL con la etiqueta noindex, si que hace un rastreo.
Además, con el robots.txt podemos definir patrones (imaginarse el bloqueo a directorios o subconjuntos de información) mientras que la etiqueta meta robots va en cada URL
¿Qué debemos tomar en cuenta de estas dos formas de controlar el rastreo y la indexación?
Estos dos métodos son muy necesarios para controlar el rastreo y la indexación.
Si por ejemplo bloqueamos en el robots.txt un directorio, en principio Google no perderá tiempo rastreando esa sección. Pero si recibimos un enlace externo, es bastante probable que rastree e incluso indexe esa sección, ignorando por lo tanto la instrucción que le damos.
Por ello es importante dejar en los meta robots las directivas que deseamos, en una forma de controlar la indexación final que haga Google de nuestra web
Otras directivas para los meta robots
Podemos usar más elementos, algunos ejemplos:
- archive / noarchive: si queremos que se almacene o no el contenido de la web en la memoria caché interna.
- noimageindex: para no indexar las imágenes de la página,
Y algunos otros ejemplos, pero con usos menos frecuentes que pone a nuestra disposición Google en su página de ayuda para desarrolladores.

¿Cómo más podemos controlar la indexación?
Etiqueta Canonical
Como se podrán imaginar, no tiene nada que ver con la iglesia católica, ni con canonizaciones, ni con santos de ningún tipo.
En el año 2009, Google, Yahoo y Microsoft se pusieron de acuerdo y diseñaron una etiqueta que les permitiera, simplificar el problema del contenido duplicado.
Desde un punto de vista SEO las etiquetas canónical son similares al 301. Les explico:
Imaginarse que tenemos una URL:
«https://meloquitandelasmanos.com/zapatochulo/»
Y se trata de una tienda online que crea una variable en la URL si cambias un atributo del producto, por ejemplo el color, entonces la URL quedaría:
«https://meloquitandelasmanos.com/zapatochulo#rojo/»
O incluso, haciendo un mailing o creando una campaña de publicidad en Facebook por ejemplo, quedando la URL con las típicas etiquetas que te permiten analizar las campañas, ejemplo:
«https://meloquitandelasmanos.com/zapatochulo?utm-source=facebook-campaigns=zapatos-verano/»
A efectos prácticos los buscadores pueden interpretar estas URLs como contenido duplicado porque las trata como URLs diferentes con el mismo contenido.
Para ello, solo debemos poner una etiqueta en la cabecera que indique la rel=»canonical» original y las demás variaciones, los buscadores entenderán que se trata de la misma página.
Ojo, ya saben y se los he mencionado, que a veces los buscadores pueden ser «caprichosos» así que las etiquetas canónicas son tomadas solo como una sugerencia, no como una directiva.
Si estamos en WordPress, que entiendo que será el caso si estás escuchando este podcast, y tienes un plugin SEO, pues que sepas que puedes estar tranquilo o tranquila, ya que suelen por defecto los plugins SEO agregar la etiqueta canonical de forma automática.
Para comprobarlo, solo pulsa el botón derecho del ratón y ver código fuente de la página. Busca la siguiente etiqueta en la cabecera de tu web:
<link rel="canonical" href="https://seoparawp.com/" />
¿Curioso? ¿interesante? Espero que así haya sido.
Este es un capítulo breve pero básico que cubre unos principios básicos de rastreo e indexación que tienen mucha relevancia en el SEO de nuestras páginas web. Así ya saben qué significa cuando configuramos estas opciones en cualquiera de los plugins SEO del ecosistema WP.
La semana que viene les contaré qué tal la experiencia de la #WCMadrid, espero que mi voz llegue en buen estado después del intenso fin de semana que nos espera.
Si te gustó este podcast, para poder llegar a más gente, te agradezco que lo compartas, me ayudará a crecer, solo pulsa me gusta en tu aplicación de podcast favorita, deja una valoración en itunes, ivoox.
Compártelo en redes y si quieres, suscríbete al boletín, lo hago manualmente y con mucho cariño cada semana
¡Nos vemos en el próximo episodio! 😉
Larga vida y prosperidad a WordPress. ¡Hasta loguiño!
Muchas gracias a Rock’n Roll Monkey de Unsplash por la fantástica foto que acompaña este podcast y a guaxipo de Pixabay.