No hace falta ser programador web para poder trabajar el posicionamiento de una web, pero viene bien empaparse sobre nociones de HTML, CSS, JS, servidores, etc si quieres entender mejor todo lo relacionado con el SEO Técnico. O también puedes apostar por servicios SEO si lo necesitas.
Asegúrate de que tu web sea indexable y rastreable
Para poder entender mejor cómo funciona el SEO técnico, hay que saber diferenciar la indexabilidad del rastreo.
La indexabilidad y el rastreo son los puntos fundamentales dentro del SEO técnico, ya que aunque se tenga un contenido excelente y que responda a la intención del usuario, si Google-bot ni siquiera llega a tu web, nunca vas a aparecer en los resultados. Y, si llega a la web, pero no puede descubrirla entera, será muy complicado recibir visitas.
El proceso que realiza Google-bot para que al final aparezcan las webs en los resultados de búsqueda, comienza con el rastreo:
1) Google-bot entra en la web y descubre nuevas URLS y URLs modificadas (re-rastreo).
2) Después de rastrear toda la web (o hasta donde permita el presupuesto de rastreo), envía estas URLs (tanto las nuevas como las modificadas) a indexar en el índice, respetando las directivas de index o noindex que se hayan marcado en cada URL, analizando el contenido y teniendo en cuenta las canonicals que se hayan establecido.
3) Por último, estas URLs rastreadas se clasifican y se ordenan por relevancia en las diferentes posiciones de los resultados de búsqueda. Aquí entran en juego muchos factores, y en gran parte es donde se centra el trabajo SEO.
Controla el rastreo con ayuda de robots.txt
Lo primero que hace Google-bot cuando empieza el proceso de rastreo es entrar en el robots.txt. Se trata de un archivo localizado en la raíz de la web (dominio.com/robots.txt) y que permite establecer “normas” para el rastreo.
* IMPORTANTE: este archivo siempre tiene que llamarse robots.txt, solo puede haber uno por web y debe estar en la raíz.
Con el robots.txt lo que hacemos es decirle a Google-bot que partes de nuestra web queremos que rastree y cuáles no. En webs pequeñas no tiene tanta importancia, pues el presupuesto de rastreo suele valer para llegar a toda la web.
Es importante en webs grandes, con muchos directorios, y en e-commerces. Saber gestionar las directivas de robots.txt es imprescindible.
Un ejemplo de robots.txt para WordPress:
A la hora de crearlo, en CMS como WordPress, existen plugins que permiten generarlo en 1 clic. Si tienes una web a medida en HTML, PHP, etc. no tendrás más que subir el archivo robots.txt a la carpeta raíz, con algún sistema de gestión de archivos como Filezilla, o desde el propio panel que tienen la mayoría de hostings.
Antes de aplicar cambios en el robots.txt, conviene hacer pruebas. Se puede usar esta herramienta: https://technicalseo.com/tools/robots-txt/
Optimiza tus sitemaps
El sitemap es un archivo con el cual le indicamos a Google las URLs que queremos indexar de nuestra web. Algunos consejos para optimizar sitemaps:
- Incluye URLs completas con código de respuesta 200.
- Incluye URLs indexables (comprueba que no tengan un noindex).
- Incluye URLs canónicas.
- El formato debe ser en xml (se pueden hacer también en HTML, pero no tiene la misma función).
- Máximo 50 MB por sitemap y 50.000 URLs.
- Haz un sitemap por tipo de URL (uno para productos, otro para categorías, otro para entradas de blog, etc.)
- Manda por separado cada sitemap en Google Search Console, te permitirá comprobar mejor errores de cobertura.
*IMPORTANTE: que una URL aparezca en el sitemap no implica que se vaya a indexar.
Códigos de respuesta
Se trata de respuestas de 3 dígitos que realiza un servidor a una petición de un cliente (navegador o bot). En términos menos técnicos, es la respuesta que se origina cuando una persona o el bot de Google entra en una URL concreta. Los más comunes son:
- 200: todo correcto.
- 3xx: Las más habituales son las 301, que se producen cuando se entra en una URL que ha sido redirigida a otra de forma permanente (porque ya no exista, porque ese producto ya no se vende y un largo etcétera.)
- 4xx: Cuando la solicitud no puede completarse. El más habitual es el error 404, que implica que una URL no existe.
Se deben controlar estos errores para mejorar el rastreo de Google-bot y evitar que los visitantes lleguen a callejones sin salida.
*CONSEJO: aprovecha a personalizar las páginas de error 404. No muestres la típica que tiene todo el mundo, diferénciate.
Controla la velocidad de carga, sin obsesionarte
La velocidad de carga no es un aspecto como tal del rastreo, pero si juega un papel fundamental. Cuando entra un visitante en la web, si esta tiene un tiempo elevado de carga, lo más normal es que esa persona se vaya a la web y busque en otra. Pues lo mismo se puede aplicar a Google-bot.
Hay que pensar que rastrear webs a Google le cuesta dinero, y, como toda empresa, busca optimizar costes. Por eso, a cada web le asigna un presupuesto de rastreo.
Pongamos un ejemplo. Si ese presupuesto asignado a tu web da para visitar 10 URLs que carguen en menos de 10 segundos, y tienes 8 URLs que cargan en menos de 5 segundos, perfecto, estás seguro de que Google-bot va a llegar a todo. Si, por el contrario, tienes 5 URLs que tardan en cargar más de 20 segundos, Google-bot no va a llegar a todas y difícilmente posicionarás en resultados buenos.
Si esto lo piensas desde la óptica del visitante, si alguien entra en una web que tarda +10 segundos en cargar, terminará saliéndose sin ver apenas nada, con las consiguientes pérdidas que eso supone.
Para medir las velocidades de carga se puede usar:
- https://pagespeed.web.dev/
- https://gtmetrix.com/ (eligiendo como lugar de medición Londres o el más cercano a la ubicación de tu web)
- La pestaña Network/Performance del navegador
*IMPORTANTE: no te obsesiones con conseguir un 100 en Page Speed. Si la web va rápida en el navegador, perfecto.
Usa la herramienta de rastreo por excelencia
Hay muchas (muchísimas) herramientas SEO en el mercado. Pero si en algo hay consenso, es que Screaming Frog es la herramienta por excelencia para el análisis SEO. Tiene versión gratuita para hasta 500 URLs, perfecta para webs pequeñas o iniciarse en este mundo.