SEO
SEO: Estructura de URLs
Complementando un post anterior sobre la optimización de las URLs para la SEO, aquí tenemos seis tips adicionales para optimizar la estructura de las URLs de una página web (publicados en SEJ):
1. Tamaño de la URL: No más de 3 a 5 palabras. De acuerdo a una entrevista a Matt Cutts, si hay más de cinco palabras, el algoritmo de Google distribuye el peso en cada una de ellas y no termina de darles credibilidad.
Además, según investigaciones diversas, se ha determinado que el número de clics se duplican cuando la URL de las páginas webs son cortas respecto a las largas. Lo que se vuelve importante, si es que Google valora los clics en los resultados...
Contenido duplicado y Scrapers
Scraper es un sitio web que copia todo su contenido de otros sitios, utilizando para ello diferentes métodos automatizados. En los últimos años, con la aparición de Google Adsense, los sitios Scrapers han proliferado como un hongo en invernadero, tanto así que los editores de contenido original se sienten incómodos por ello y los buscadores se están preocupando cada vez más, por identificar correctamente a cual sitio le pertenece tal contenido.
Con el crecimiento del contenido duplicado, los buscadores se ven obligados a aplicar formulas que les permitan identificar la fuente original, premiarla colocándola en buenas posiciones, y penalizando al sitio que duplica contenidos con fines poco éticos.
Un buscador que como resultado devuelva distintas webs con el mismo contenido, tendría un serio problema de calidad.
En ese sentido, Google acaba de publicar un post tocando el tema del contenido duplicado, de los Scrapers y de sitios, que sin ser Scrapers, también duplican contenido. Tema que no es nuevo, y que ha estado en el tapete del mundo SEO desde hace varios años, pero que actualmente se ha incrementado de manera notoria (sobre todo en nuestro idioma).
Sólo hace falta realizar algunas búsquedas para comprobar que la eficacia de los buscadores aún no es la esperada. Muchas veces los agregadores, planets o redes sociales, en el ejemplo Menéame, suelen estar mejor posicionados que la página a la que referencian. O un blog popular que referencia un contenido, suele ubicarse en mejor posición que el sitio original.
Así pues, en este artículo vamos a ver varios tips SEO dados por el blog oficial de Google y por Vanessa Fox, en su blog personal, entre otros...
Subdominios o subcarpetas: Cuál es mejor para la SEO?
La respuesta la da SEJ, y aquí la resumimos: Los subdominios y subcarpetas tienen sus ventajas y desventajas, dependiendo de lo que se intenta conseguir.
En el caso de los blogs por ejemplo, se recomienda utilizar una subcarpeta (http://www.baluart.net/blog/) porque el link juice que se envía al blog termina distribuyéndose naturalmente y compartiéndose con el dominio principal, y otras subcarpetas que estén bajo el dominio.
En este caso, utilizar una subcarpeta para nuestro blog, o incluso foro, favorece a incrementar el valor del dominio.
Con un subdominio, en cambio, el foro o blog se considerará como una web separada en los resultados de Google, por lo que muchos spammers utilizan subdominios para escalar posiciones y aparecer repetidamente en el buscador. Sin embargo, Google y otros motores de búsqueda, ya no incluyen más de dos subdominios en los resultados, a menos que demuestren que efectivamente pertenecen a entidades independientes...
Cómo administrar lo que Google muestra de mi web
En un principio, todos estamos felices cuando nuestra web aparece por primera vez en el buscador. Pero pasa el tiempo, y uno se va percatando que el contenido que se muestra indexado al realizar una consulta es clave para atraer más tráfico, o hacer branding de nuestra web... ¿Saben ustedes que hay algunas formas de manejar este contenido? ...
Crear archivo robots.txt con Google
Hasta ahora era difícil entender cómo es que Google Sitemaps tenía una herramienta para analizar el estado de los ficheros robots.txt, pero no una que permita crear o guardarlos.