Je profite de ce billet pour vous souhaiter à tous et toutes une excellente année 2013 ! Je succombe à la tendance du moment pour vous livrer nos prédictions intuitions sur le référencement naturel et l’acquisition d’audience en 2013.

Les référenceurs devront changer leur approche de l’ancre de liens

On sait que depuis plusieurs années Google améliore sa manière d’interpréter le “sens” des pages web (critères onsite) et parvient très bien aujourd’hui à cartographier les pages web liées à un thème en particulier. On a souvent parlé de LSI (Latent Semantic Indexation, pour en savoir plus, je vous laisse à cet excellent article), d’interprétation de la synonymie, ou encore de détection d’entités sans vraiment avoir d’aveux de la part de Google sur l’utilisation ou non de ces techniques.
Pour autant, la communication de Google vis-à-vis de la communauté SEO a changé ces derniers mois. Des mises à jour du type Pinguin sont clairement des signaux forts envoyés aux référenceurs et marquent une volonté ferme de ne pas se laisser manipuler par des campagnes de linking “exotiques”. Je pense que Google ira plus loin dans cette démarche car Pinguin a essentiellement touché ceux qui avaient fait du SEO en mode bourrin outrageusement abusé de techniques SEO répréhensibles. Il cherchera probablement dans les mois qui viennent à parfaire les ajustements de type Pinguin en prenant en compte au niveau des ancres de liens la cooccurrence sémantique et son Knowledge graph. Par exemple pour se placer sur le mot clé “Appareil photo”, il vous faudra obtenir des liens avec des ancres telles que “Objectif 50mm”, “Vitesse d’obturation”, “Brdge”, “Reflex”, “Zoom optique” qui sont tous des mots clés se rapportant principalement à “Appareil photo”. (j’y reviendrai dans un autre article).

La fin de l’achat de liens

Là encore, on sait que Google horodate tout ce qu’il indexe, et les récentes mises à jour de Google Webmaster Tools sont là pour nous le prouver. Or, lorsque vous achetez un lien sur une plateforme ou en deal avec un autre webmaster, en réalité vous “louez” un lien. Il aura donc une durée de vie à priori plus courte que la moyenne des autres liens que vous obtenez. Croyez vous qu’il soit difficile pour Google et sa puissance de calcul d’identifier cela ? Dans un prochain article je vous montrerai comment identifier qu’un site achète des liens (avec des moyens nettement plus faibles que ceux de Google). Je pense donc que l’achat de lien sera le moyen le plus improductif de faire du SEO en 2013. D’ailleurs, chez Propulseo on n’a jamais recommandé d’acheter de liens à nos clients :-)

Les “mentions” sociales vont prendre du poids

L’année dernière on nous disait déjà que le référencement serait social ou ne serait pas. Les récents tests que nous avons effectué nous laissent à penser que les “mentions”, je veux dire par là les citation de votre marque, de votre pseudo twitter, des Urls de vos sites sur les réseaux sociaux ouverts tels que Google+ ou Twitter ainsi que les posts publics de Facebook auront un poids non négligeable dans les critères utilisés par google pour définir l’autorité ou la popularité de votre site.

Une plus grande prise en compte de “l’Author Rank”

Grâce à Google+, aux données sur les propriétaires / éditeurs de sites captées par Google Analytics ou GWT, Google parvient désormais très facilement a comprendre qui est l’auteur ou l’éditeur d’un site ou d’un groupe de sites. Il a même déposé un brevet sur l’identification de l’auteur. Cela laisse présager qu’une notion de popularité sera scorée pour chaque auteur, laquelle sera transmise à chacun des articles de l’auteur. Ainsi, les auteurs les plus populaires verront leurs pages mieux se positionner.

Une prime au Responsive Design et aux Micro Data

Google a toujours eu la volonté de fournir la meilleure expérience de recherche aux internautes. Les avancées en la matière ces dernières années n’ont fait que confirmer cette ambition : recherche universelle, rich snippet, knowledge graph… Pour réaliser ces améliorations, les grands moteurs de recherche utilisent des Meta données structurées (Microformats, RDF, Schema.org…) ce qui leur permet d’afficher des Rich snippet notamment. On sait également que Google utilise en partie Chromium comme client pour interpréter le code Javascript, et les feuilles de style de nos pages web. C’est d’ailleurs le rendu de Chromium qui vous permet d’obtenir un aperçu d’une page web au sein même des résultats de GG. De surcroît, Google cherche à homogénéiser l’experience de recherche sur tablette, mobile, et PC. On peut donc s’attendre à ce qu’une sorte de “boost” soit attribué aux sites qui utilisent à la fois un design s’adaptant à tous les devices (si votre site ne passe pas sous mobile, quel est l’intérêt de Google de vous envoyer un visiteur qui surfe sur le web depuis son smartphone ?) et qui “parlent” à Google grâce aux Microdonnées.

Ces tendances sont des prévisions et ne constituent en aucun cas des vérités absolues. Néanmoins, Propulseo vous proposera dans quelques mois les résultats de différents tests scientifiques nous ayant permis de produire cette liste. Pour recevoir nos articles n’oubliez pas de liker notre page Facebook, de nous suivre sur Twitter, ou de vous abonner à notre newsletter.