Ya os hablamos en un artículo anterior de Como diseñar y construir tu web para que esté optimizada para SEO, ahora le toca el turno a cómo crear tu XML Sitemaps que será quien transmita a los buscadores, cuáles son las páginas que debe indexar de tu web.
A la hora de crear una página web, es importante crear un mapa de tu sitio para que los principales buscadores sepan como está estructurada. Para ello, podemos utilizar una herramienta poderosa llamada XML Sitemaps. Sin embargo, la mayoría de usuarios tienen un concepto erróneo de lo que realmente hace XML Sitemaps y le dan un manejo erróneo. De esta forma, vamos a dar unas pautas básicas sobre ella, como toda herramienta de SEO, sólo se necesita un poco de entrenamiento.
El concepto erróneo que más se tiene sobre esta herramienta, es que ayuda a las páginas a ser indexadas por los buscadores, en especial Google, pero no es así. Tu página no será indexada solo por solicitarlo, Google trabaja de forma tal, que al encontrar un contenido relevante, bien escrito, organizado y que considera de buena calidad, lo toma y lo muestra al mundo como algo digno de ver. En realidad, XML Sitemap notifica a Google Search Console que se ha creado una nueva página y que es posible que sea de buena calidad. En otras palabras, solo es un indicio de que la pagina puede ser importante, pero terminará siendo Google quien juzgue si es o no una página relevante.Errores más comunes al usar XML Sitemap
En ocasiones, los usuarios tienden a crear el mapa del site por medio de XML Sitemap pero al mismo tiempo la bloquea con robots.txt generando una contradicción dentro de tu página. Es verdad que se deben esconder algunas áreas de nuestra web que no serán relevantes para los buscadores, pero se deben manejar de forma muy específica, en cada página a esconder se colocarán los metarobots de “noindex,nofollow” Sin embargo, los robots de “noíndex” “nofollow” en una página deben usarse con cuidado. Al crear una página debemos de dividirla en dos partes:- Páginas de utilidad: todas las pestañas que son útiles para los usuarios pero no son landing page donde aterricen los usuarios. Ej: Login, carrito, checkout, etc. Por tanto, debe ser bloqueado por robots.txt o bloqueado a través de meta robots "noindex, follow" y no debe estar en un XML sitemap.
- Páginas de destino buenas y de alta calidad: Aquellas páginas en las que buscamos que nuestros clientes encuentren contenido como páginas de aterrizaje. Por tanto, dichas páginas no deben ser bloqueadas por robots.txt, no debería tener meta robots "noindex", y probablemente debería estar en un XML sitemap.
Calidad del contenido de la web
Es muy importante entender que Google está tomando ciertas medidas en cuanto a la calidad de contenido en un sitio y eso afecta la calidad de métricas del mismo. Google toma el mapa de tu sitio y lo compara con otros y si ve que tienes indexadas todas las páginas, incluyendo las de utilidad, como el login, junto con las de página de aterrizaje y el blog, dará a entender que no se tiene idea de lo que constituye un buen contenido en su sitio y lograrás que seas retirado del index. Por ello, hacer una buena comparación de las secciones de su sitio es un paso muy relevante. Ahora que ya sabes que es necesario tener muy presente cual es la división que se debe usar en tu sitio, te darás cuenta cómo realmente XLM Sitemaps trabaja y puede hacer mucho porque tu sitio tenga mayor relevancia y visibilidad en la web. Aquí es donde el XML sitemap es muy útil para SEO, cuando envía un montón de páginas a Google para la indexación, y sólo algunas de ellas se están indexando. Google Search Console no le indicará qué páginas indexan, sino un número general indexado en cada XML Sitemap. Imagínate que tienes una gran página llena de contenido estupendo, si Google ve tu web como 1.000 páginas de contenido, de las cuales sólo 5-6 páginas son tan buenas como esta gran página y Google envía un usuario a una de esas grandes páginas, ¿cuál va a ser la experiencia del usuario si hace clic un enlace en esa página y visita algo más en su sitio? . Lo más probable es que van a aterrizar en una página mala. Google entiende que cada web tiene un cierto número de páginas de utilidad que son útiles para los usuarios, pero no necesariamente páginas de contenido que deberían ser páginas de destino de la búsqueda: páginas para compartir contenido con otros, responder a comentarios, iniciar sesión , recuperación de una contraseña perdida, etc. Si tu XML sitemap incluye todas estas páginas, ¿qué está comunicando Google? Más o menos que no tiene ni idea de lo que constituye un buen contenido en tu sitio y lo que no.¿Cómo crear tu XML Sitemap?
[sociallocker] Si necesitas crear tu sitemap y no sabes cómo, es muy fácil puesto que existen generadores o herramientas y que son muy fáciles de utilizar:- XML-Sitemaps: Se trata de una herramienta online donde pones tu dominio y automáticamente rastreará todas tus páginas y creará tu Sitemaps con hasta 500 páginas. En caso de que tu web tenga mucha más cantidad de páginas, a través de la versión de pago podrás también acceder a la generación de tu sitemps sin límites.
- Google XML Sitemaps: En el caso de Wordpress cuentas con este plugin muy fácil de utilizar. Cada vez que publiques un nuevo post o página, tu sitemap se actualizará.