1 min.
Ça bouge chez Google – Indexation des javascripts
1L’art de la gestion de projet2Un projet à succès commence par une bonne gouvernance3Cascade, agilité, demandes de changement?

Ça bouge chez Google – Indexation des javascripts

  • Niveau Technique
Contenu & SEO

rosettaLa nouvelle a eu l’effet d’une bombe dans la communauté SEO : Google indexerait maintenant pleinement la plupart des javascripts. On savait déjà que Google indexait une partie des javascripts, mais il semble bien que le moteur de recherche ait décidé d’augmenter ses capacités pour tenir compte davantage des avancées techniques du web. Il faut dire qu’il était temps. Interpréter les javascripts ne demandait pas de la programmation de haut niveau, seulement un peu plus de CPU. Je suis extrêmement surpris que ça n’ait pas été fait complètement depuis des années.

 

L’indexation des javascripts est aussi logique avec la mission et l’objectif de Google. Ainsi, il est impossible de vouloir organiser l’ensemble de l’information produite sur la planète si une partie de cette dernière est inaccessible pour des raisons techniques. De plus, l’indexation des javascripts va aussi aider Google à augmenter la pertinence de ces résultats puisqu’il n’est pas exclu que le meilleur résultat pour une recherche donnée soit derrière un javascript, jusqu’alors non-indexé.
Quels sont les javascripts indexés ? Généralement, ce sont ceux dont le code source est présent sur la page. Nos références font état que les javascripts dont le code est contenu dans une page séparée ne seraient pas (encore) interprétés. Voici une liste non-exhaustive des types de javascripts suivis par Google :

•    <div onclick= »document.location.href=’http://foo.com/' »>
•    <tr onclick= »myfunction(‘index.html’) »><a href= »# » onclick= »myfunction() »>new page</a>
•    <a href= »javascript:void(0) » onclick= »window.open(‘welcome.html’) »>open new window</a>

Quelle est l’implication du SEO en général? Je crois qu’elle sera mineure, mais qu’il y aura quand même des gagnants et des perdants. Les gagnants seront premièrement tous ceux ayant fait une utilisation intensive du javascript dans leur site, qui verront soudainement davantage de leurs pages indexées, ce qui devrait se traduire en trafic. Malheureusement, cela pourrait faire descendre certains sites optimisés HTML dans les résultats de recherche, puisque l’augmentation du nombre de pages indexées générera aussi une augmentation de la compétition pour les mots clés. Nous pouvons aussi penser que la technologie et la convivialité web augmenteront aussi puisque les designers auront moins de contraintes SEO à considérer lors de l’élaboration de leur site.

Les grands perdants seront (heureusement) ceux ayant abusé du javascript pour ajouter des éléments cachés (cloaked text) ou d’autres trucs black hat à leur site. Quoique leur sort m’importe peu, j’ai confiance que les spammeurs trouveront bien d’autres moyens pour truquer les résultats de recherche.

Est-ce que les propriétaires de site devraient procéder à des modifications pour tenir compte de ce changement d’algorithme ? Je crois que non. Comme mentionnés précédemment, au mieux, ils verront de nouvelles pages indexées, ce qui sera très positif.  Certains auraient quand même avantage à placer leur javascript directement dans le code source de la page plutôt que dans un fichier séparé. Finalement, ceux ayant utilisé des techniques louches devraient repenser leur stratégie aussi vite que possible !