SEO la forma de mejorar un sitio web para los buscadores
SEO (Optimización para motores de búsqueda)
Como hemos hablado anteriormente, nos ofrece una gran variedad de estrategias, disciplinas y técnicas para conseguir mejorar la implementación de páginas web para destacar en las primeras posiciones de los buscadores. Es muy recomendada si queremos que nuestro negocio llegue a destacar en temas relacionados con la visibilidad en el mundo de internet y el aumento de volumen del tráfico orgánico, ya que conseguiremos aumentar el número de clientes. Una herramienta bastante útil que puedes utilizar para poder gestionar el contenido que envías a Google y supervisar tus servicios a la hora de rendimiento es: Google Search Console
Google Search Console
Ahora que tenemos claro lo importante que es estar en el podio de las búsquedas, vamos a hablar de este servicio gratuito que nos ofrece Google que nos facilitara el mantener, controlar y solucionar dificultades a la hora de presenciar nuestro sitio web de los resultados de búsqueda de Google, esta herramienta está pensada para desarrolladores web, administradores del sitio, especialistas en Seo o marketing y propietarios de negocios.
¿Qué conseguiremos si usamos Google Search Console?
- Una descripción general del rendimiento de nuestro servicio, incluyendo el número de clics totales en la búsqueda de web
- Un apartado para comprobar el número de páginas que tenemos indexadas
- Una sección específica para los sitemaps que hablaremos más adelante
- Mejoras para aumentar la experiencia de la página y métricas para mejorar la experiencia del usuario
¿Qué es sitemap y porque lo necesitamos?
El primer proceso para facilitar a Google encontrar nuestra página web es con un fichero llamado sitemap, dicho archivo se compone como un mapa o estructura de nuestra web y su función es ofrecer información de todas las páginas que han sido creadas como modificadas a los motores de búsqueda. Así conseguiremos ayudar al robot de Google a la hora de procesar la indexación de cada una de las urls de la web de forma rápida y eficiente.
Robot.txt y su gran utilidad
Ya hemos hablado de como ayudar a los motores de búsqueda a detectar nuestra web, pero nos podemos encontrar situaciones en las que no queremos que nos rastreen una página especifica, ya que hay veces que puede contener información sensible, gracias a robot.txt señalaremos a los buscadores si tienen acceso a determinadas secciones de nuestro sitio y por ello rastrearlas, será necesario que lo añadamos en la carpeta principal del proyecto.
Schema y los datos estructurados
Los motores de búsqueda intentan dar lo máximo a la hora de entender como se estructura la información de una página web, para poder facilitar ese proceso podemos añadir datos estructurados para ayudar a Google con datos explícitos sobre su significado. Dichos datos tienen una estructura estándar para ofrecer información sobre una vista y clasificar su contenido como puede ser un blog, una vista de servicios, ofertas de empleo... Para poder dar formato a estos shcemas tenemos la opción de crearlo mediante fragmentos de JSON-LD donde contendrán una serie de etiquetas para dar una breve descripción de la página
<html>
<head>
<title>Bizcocho sencillo de manzana y limón</title>
<script type="application/ld+json">
{
"@context": "https://schema.org/",
"@type": "Recipe",
"name": "Bizcocho sencillo de manzana y limón",
"author": {
"@type": "Person",
"name": "Daniel Cárdenas"
},
"datePublished": "2022-10-11",
"description": "Este pastel es increíble y perfecto para las fiestas.",
"prepTime": "PT1H5M"
}
</script>
</head>
<body>
<h2>Bizcocho sencillo de manzana y limón
</h2>
<p><i>por Daniel Cárdenas, 2022-10-11
</i></p>
<p>Este pastel es increíble y perfecto para las fiestas
.</p>
<p>Tiempo de preparación: 1 hora y 5 minutos </p>
</body>
</html>