Il est clair que des nouveaux facteurs sont en jeu et que les signaux de popularité importants pour les moteurs de recherche vont continuer d’évoluer avec le comportement des internautes. Toutefois, on oublie trop souvent que le référencement en 2011 reste assez semblable au référencement web d’il y a cinq ans sur plusieurs points.
Avant de réfléchir aux meilleures stratégies de popularité, il est bénéfique de s’assurer que les éléments on-site de votre site sont au point. Il semble que plusieurs sautent des étapes importantes de la base d’un bon référencement.
Je ne parle pas de fichier robots.txt ou de l’utilisation de JavaScript, mais d’éléments plus spécifiques qui sont parfois omis.
Voici quelques pistes pour optimiser l’accessibilité de votre contenu.
La duplication de contenu est un problème fréquent sur plusieurs sites et un obstacle majeur au référencement. Heureusement, elle est souvent facile à régler. Voici les problèmes les plus fréquents que nous rencontrons :
Dans cet exemple, la même page est placée à deux endroits sur le site. Or, elle ne devrait pas se retrouver dans un répertoire /index.php. Assurez-vous que votre CMS ne crée pas de duplication de page.
Ce problème est plus fréquent sur les sites de commerce électronique. Dans notre exemple, la fiche produit « Pro model 2011 » est placée dans 3 répertoires.
Vous pouvez régler ce problème avec l’utilisation de balise « rel=canonical » ou « noindex, follow », mais l’idéal est de contrer cette duplication dès le départ en proposant une architecture de contenu qui limite la duplication.
Le manque de personnalisation des balises est souvent en cause. Vous pouvez régler ce problème en personnalisant chaque balise TITLE et META description ou en les générant automatiquement avec votre balise H1 ou le fil d’Ariane.
La pagination des pages et les filtres sont aussi des sources importantes de duplication de contenu, dont les balises TITLE et META description.
Les robots n’aiment pas les erreurs de serveur, that’s it that’s all. Que ce soit une page 404 ou une erreur 500, assurez-vous de diminuer au maximum vos erreurs de crawling pour faciliter la navigation des robots. Google Webmaster Tools est définitivement votre meilleur ami pour identifier les erreurs de crawling sur votre site.
Sur ce point, deux choses à effectuer :
Dernièrement, notre équipe de référencement a fait un travail d’optimisation semblable. En seulement un mois, nous avons des résultats forts positifs.
Point important pour les gestionnaires en marketing interactif.
Assurez-vous que vos nouveaux employés moins expérimentés ont une bonne connaissance du CMS et des meilleures pratiques de référencement. Il est souvent bénéfique de faire des courtes formations et donner des directives pour la création de liens internes, le choix des textes d’ancrage, l’utilisation des balises headers, le tagging et l’archivage des pages, l’optimisation des images et les autres aspects de base du référencement.
Sur ce, on réalise rapidement qu’il y a certains points à analyser avant de se lancer dans une stratégie de popularité. L’idée est d’avoir une base solide pour s’assurer que le contenu est facilement accessible par les robots. Le retour de vos actions de popularité sera plus grand si votre site respecte les bonnes pratiques du référencement.