Cómo mejorar el posicionamiento SEM y SEO de mi empresa

El SEO es un modo de conseguir tráfico de una forma gratuita mediante consultas de búsquedas que obtenemos de forma natural.

El SEM consiste en el pago de una cantidad determinada por aparecer en los primeros puestos de búsqueda con objeto de aumentar su visión y por consiguiente aumentar las posibilidades de que sus productos sean susceptibles a compra.

La diferencia entre estos dos sistemas también difiere en cuanto a la temporalidad de los resultados, pues estos son inmediatos con el SEM, sin embargo, con el SEO no es así.

La propuesta que realizamos para aumentar el posicionamiento SEM sería la de obtener un alto Quality Score (QR). Estos términos hacen referencia a la calidad estimada de la relevancia de nuestros anuncios, las keywords seleccionadas y la web de destino para usuarios que contemplan nuestro anuncio

  • Frecuencia con la que se reciben clicks a directamente desde la URL.
  • Historial de todos los anuncios y keywords de la cuenta.
  • Estado de la landing page: usabilidad, transparencia, relevancia.
  • Relevancia del keywords respecto al anuncio, cuanto más se pueda identificar a la palabra clave con el anuncio al que remite, mas alta será la puntuación otorgada.
  • Factor geográfico, éxito del anuncio en las áreas geográficas a las que está orientada.
  • Nivel de rendimiento del anuncio en diferentes dispositivos, móviles, tablets, portátiles, etc. Los niveles de QR varían en función del rendimiento en cada dispositivo.

 

A continuación procedemos a dar una serie de recomendaciones sobre SEO:

 

Empezamos por la explicación de lo que es “SEO” casi todo el mundo cree tener una idea de lo que significan esas siglas pero este es el primer fallo en el que caen la mayoría de las empresas, no le dedican el tiempo y los recursos necesarios a analizar este término y a la creación de una estrategia SEO adecuada.

 

SEO (Search Engine Optimizaticon) son una serie de técnicas que conllevan la reorganización de una página (con los factores “on site”) y la socialización de estos en internet con otros (factores “off site”) con la finalidad de conseguir para unos términos de búsqueda concretos una mejor posición de un “website” en los resultados de los buscadores. En resumen y con una definición más amplia, con el conjunto de estrategias y prácticas destinadas a la fidelización y captación del tráfico proveniente de los buscadores más representativos. Esta es una acción cambiante en función a la evolución continua de los buscadores.

 

En un estudio de una estrategia SEO se deben tener en cuenta una serie de factores fundamentales objeto de estudio:

 

  • Titulo:

 

Es necesario asegurarse de que el título sea explícito y contenga las palabras clave más importantes. Cada página debe tener un título único. Lo ideal es que el título esté comprendido entre 10 y 70 caracteres.

 

  • Descripción:

 

La meta descripción determina como se muestra y describe la página web en los motores de búsqueda. Una descripción óptima debe actuar como un anuncio orgánico que anime al usuario a visitar el sitio tras su visualización.

La descripción debe ser explicativa y tiene que contener las palabras claves más relevantes, al igual que los títulos, cada página debe tener una descripción en concordancia con su contenido. Los parámetros ideales que debería contener una descripción estarían situados entre 70 y 160 caracteres incluyendo espacio.

Una buena meta descripción actúa como un anuncio orgánico potencial y anima a quien lo ve a hacer clic para visitar su web.

 

  • Vista previa en buscadores:

Es como se presenta el título de la empresa y su descripción en google. Un ejemplo sería:

[REF: 53 Ilustración Red.es, Google.es]

 

  • Encabezados:

 

El sitio web del beneficiario está estructurado usando encabezados HTML. Las palabras clave deberían ser utilizadas en los encabezados asegurándose que el primer nivel (<H1>) incluye la palabra clave más relevante. Debería evitarse la duplicidad de contenido de etiquetas de títulos en la etiqueta de encabezados. Para un SEO efectivo debería utilizarse una etiqueta <H1> por página.

 

  • Nube de palabras clave:

La nube de palabras puede posibilitar tener un mejor posicionamiento en los motores de búsqueda.

 

  • Coherencia de palabras clave:

 

Con la intención de mejorar el posicionamiento en los motores de búsqueda se utilizan determinadas palabras clave.

 

Se debe hacer uso de aquellas palabras que sean más relevantes y a su vez adquieran coherencia, esta tendencia debe extenderse más allá del cuerpo de la página, se seguirá la dinámica en el encabezado y descripción.

 

Estos keywords deberían estar incluidos además en los enlacen internos de la web.

 

La densidad de las palabras clave es un factor con alta importancia en el posicionamiento SEO ya que los motores de búsqueda se basan en la densidad de las palabras clave para determinar la categoría y relevancia de un tema en cuestión.

 

En teoría, cuanto más aparezca la palabra clave en comparación con el número total de palabras que componen el contenido de una página, más alta será su densidad.

 

No se establecen a priori ningunos estándares para medir si una palabra clave tiene o no una densidad correcta, sin embargo, suele entenderse como parámetros corrector una densidad de entre un 3% y el 5%, si nos excedemos en la densidad de ciertas palabras pueden categorizarse como “spammer” y por esta causa el sitio web puede ser penalizado.

 

Si bien es cierto que la densidad de las palabras clave es muy importante, también lo es su coherencia. De nada vale tener una densidad alta en varias palabras si no son coherentes con el sitio web que queremos posicionar.

 

  • Atributo Alt:

 

También llamado texto alternativo de imágenes, otorga una descripción a la imagen que puede ser indexada por los motores de búsqueda.

 

  • Ratio texto/ HTML:

 

Mide la relación entre el contendido de la web en forma de texto y el usado para su funcionamiento como código HTML. Tener más contenido en formato texto es una práctica positiva, siempre y cuando el contenido sea relevante.

Consideramos que el ratio ideal se encuentra entre el 25 y el 70 por ciento ya que fuera de este rango, el sitio web podría ser considerado como spam.

  • Páginas indexdas:

 

Cuantas más páginas estén indexadas en los motores de búsqueda será mejor, pues que esto facilita a que el sitio web del beneficiario sea encontrado.

 

Un número excesivo indica que lo más probable es que la empresa necesita mejorar la arquitectura de los enlaces internos y que esto está impidiendo que los motores de búsqueda localicen todas las páginas del sitio web del beneficiario. Una rápida solución sería crear un mapa del sitio XML que enviaríamos a los buscadores y definir una serie de backlinks hacia las páginas internas para facilitar la indexación a los robots de los motores de búsqueda.

 

  • Etiqueta de Google+ Publisher:

 

Es un marcador de auditoría definido por la etiqueta rel=”Publisher” redirige el contenido de un sitio web a su página de Google+. Es una práctica que potencia el posicionamiento de un sitio respecto a otros que utilizan auditoría simple: rel=”Autor.

 

  • Enlaces en páginas.

El límite de páginas que se encuentra en los estándares correctos sería de unos 200 por página.

 

  • Enlaces rotos:

Los enlaces rotos son aquellos que llevan a tus visitas hacia páginas inexistentes cuando seleccionan sobre esa opción. Esto afecta porque empeoran la usabilidad, la reputación y el SEO de la web.

 

  • Contador de backlinks:

Son como una especie de cartas de recomendación para tu sitio web, es decir, los backlinks son vínculos que conducen al sitio web con otros sitios web.

 

  • Solicitudes de re direccionamiento:

 

Google detecta las URL con o sin WWW como sitios diferentes, entonces es importante que los dominios cuenten con un dominio secundario.

 

  • Canonización de IP:

 

Es conveniente que la dirección de IP redirija a la URL del sitio

 

  • txt:

 

Estos archivos indican la ubicación del fichero del mapa del sitio XML y puede evitar que se indexen en los motores de búsqueda algunas páginas que no queramos que sean encontradas.

 

  • Mapa del sitio XML:

 

Estos archivos posibilitan el rastreo a los motores de búsqueda al enumerar las URL, además de esto, pueden incluir otro tipo de datos como las actualizaciones de la web, su frecuencia y el peso de cada URL.

 

  • URL claras y limpias:

 

Las URL deben ser claras y limpias, es decir, fáciles de leer y de recordar para el usuario. Los buscadores necesitan URL limpias y que incluyan las palabras clave más relevantes del sitio.

 

  • Guiones bajos en su URL:

 

Google interpreta los guiones como separadores de palabras, en cambio, con los guiones bajos no hace lo mismo.

 

  • Factores limitantes:

 

Flash debería usarse solo en determinados momentos puntuales, esto también puede aplicarse a AJAX, es decir, debe evitarse programar un portal web íntegramente con estos contenidos, de esta forma podremos optimizar el SEO ya que no es indexado correctamente y solo lo debemos usar puntualmente.

 

Otro apunte seria evitar el uso de marcos ya que los motores de búsqueda ni rastrean ni indexan el contenido de los mismos.

 

  • Blog:

 

El vínculo de un blog con un sitio web es una forma fantástica de mejorar el SEO y atraer visitas de calidad.

 

A continuación procedemos a realizar recomendaciones tecnológicas para su futura aplicación por parte del beneficiario:

 

  • IP del servidor:

 

Si bien es cierto que la IP del servidor no tiene mucho efecto sobre el posicionamiento SEO, es recomendable intentar alojar el sitio web en un servidor que se encuentre geográficamente cerca de los visitantes de la página web en cuestión. Los motores de búsqueda tienen en cuenta la situación geográfica del servidor, así como su velocidad.

 

 

  • Herramientas de analítica web:

 

La analítica web permite una medición de la actividad de los visitantes al sitio web. Un sitio web debería tener instalada al menos una herramienta de analítica, y es recomendable instalar otra más para obtener una confirmación de los recursos.

 

Algunas de las herramientas de analítica más populares son: Google Analytics, ClickTale, SiteCatalyst, Clicky, Piwik, charbeat, etc.

 

  • Validez W3C:

Es un organismo que fija los estándares de buenas prácticas del código web. En el momento que existen errores de sintaxis en el código, los buscadores encuentran más problemas para indexar una web.

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *