Tous les liens n'ont pas la même valeur aux yeux de Google

En 1997 : Tous les liens naissent libres et égaux


En 1997, les fondateurs de Google ont créé une méthode algorithmique afin de déterminer l'importance et la popularité des sites basée sur plusieurs principes clés :

  •     Liens sur le web peuvent être interprétés comme un vote depuis la page source vers la page cible
  •     Tous les votes sont, dans un premier temps, considérés comme égaux
  •     Au cours de l'exécution de l'algorithme les pages qui reçoivent le plus de voix deviennent plus importantes
  •     Les pages les plus importantes votent de manière plus importantes
  •     Les votes qu'une page peut exprimer sont fonction de l'importance de cette page, divisée par le nombre de votes qu'elle effectue

Cet algorithme, bien sûr, vous l'avez reconnu, est celui du PageRank. Et c'est cet algorithme qui a changé le cours de l'histoire de la recherche sur internet. En se basant sur cet algorithme, les SEO ont centré leurs efforts sur les liens car pour grimper dans les résultats de recherches effectuées via Google il fallait gagner de l'importance en obtenant le plus de voix possible et donc recevoir le maximum de liens en provenance de d'autres sites web. A cet époque le lien était roi !

Profil de liens

Mais Google ne s'est pas reposé sur ses lauriers dans le domaine de l'analyse des liens. Ils ont innové, en tirant parti des signaux tel que le texte d'ancrage, le trustrank, les réseaux d'influence (hubs) et les autorités de domaine. Maintenant on évolue vers le social media et le mobile friendly. Pourtant, beaucoup d'intervenants dans le domaine du SEO ne sont pas encore au courant de ces changements et de leurs impacts et ils axent toujours leurs efforts sur l'acquisition de liens externes.

Google affine ses jugements par rapport aux liens

Très précocément l'algorithme du Pagerank est amélioré et Google s'attache à classer les liens suivant leur importance en fonction de différents critères et en particulier la position du lien dans la page d'origine du lien :

  • les liens les plus haut dans le code vs les liens les plus bas
  • les liens internes vs les liens entrants externes
  • les liens présents dans le contenu vs les liens présents dans le design et les éléments de navigation
  • les liens en dur dans le texte vs les liens dans les balises images ou les balises noscript
  • l'ordre des liens
  • Les liens haut dessus de la ligne de flottaison vs les liens plus bas dans la page

Je vais chercher dans la suite de cet article à développer plus précisément chacun de ces critères en y apportant quand c'est possible des résultats d'expérimentations menées par des référenceurs reconnus par diverses communautés.

# 1 - Les liens les plus haut dans le code HTML sont plus puissants

Chaque fois que les référenceurs ont effectué des tests, ils ont constaté que des liens plus haut dans le code HTML d'une page semblent peser plus lourd dans le classement des pages liées que ceux qui se trouvent plus bas. Cela correspond certainement à la demande de brevet que Google a acquis, concernant le classement de documents basées sur le comportement de l'utilisateur et/ou les données en fonction de ce qu'il suggère comme un certain nombre d'éléments qui peuvent être pris en compte dans la façon dont les paramètres sont passés en lien.

Suite aux « huit questions sans réponse »  de Rand Fishkin, Russ Jones a divulgué le résultat de quelques expérimentations SEO réalisées en interne.

Test 1 : L’ordre des liens a-t-il une influence sur les poids des ancres ?

Hypothèse :
Lorsqu’une page est liée plusieurs fois à partir de la même page avec plusieurs ancres différentes, les ancres ont une importance décroissante avec l’ordre des liens.

Réponse : Oui !
Les ancres « supplémentaires »  sur une même page sont d’abord ignorées.
Quand elles sont prises en compte, elles ont un poids décroissant avec leur ordre dans la page.

Expérience :
Trois sous-domaine artificiels, sur un domaine vierge, chacun hébergeant une page de contenu aléatoire ( 750 mots générés). Pas de title, pas de meta, et aucun des mots clefs choisis pour les ancres n’est présent dans le texte.
Chaque page des sous-domaine a été linkée de l’extérieur, avec trois ancres différentes en texte aléatoire. Les ancres ne sont présentes nulle part dans les pages cibles.

Les liens sont fait, toujours dans le même ordre :
sous1.domaine.com/page.htm : ancre1, ancre2, ancre3
sous2.domaine.com/page.htm : ancre2, ancre3, ancre1
sous3.domaine.com/page.htm : ancre3, ancre1, ancre2

Observation :
Dans les premiers jours, une requête sur une ancre ne montre que la page pour laquelle elle est liée avec la première ancre. (i.e. ancre2 => sous2.domaine.com/page.htm).
Au bout de quelques temps, les trois pages sont indexées, pour les trois ancres, mais elles ont toujours gardées l’ordre de leur ancre. C'est à dire que pour une requête sur l'ancre2 on aura en premier le sous-domaine 2 suivi du sous-domaine 1 et finalement du sous-domaine 3.


# 2 - Les liens externes sont plus influents que les liens internes

Il y a peu de surprise ici, mais si vous vous souvenez, le concept de PageRank d'origine ne fait aucune mention de liens internes et externes et comme quoi ils seraient pris en compte de manière différente. Il est très probable que d'autres évolutions plus récemment créées (post-1997) visent à récompenser les liens externes plus que les liens internes.

Je ne pense pas qu'il soit difficile d'imaginer que Google calcule séparément dans son analyse de PageRank, le PageRank externe et le Pagerank interne et qu'il peut potentiellement les utiliser de différentes manières pour l'évaluation de la page dans les classements.

Nul n'a besoin d'expériementer sur ce point ou plus exactement on peut dire que chacun expérimente chaque jour. C'est d'une telle évidence qu'un lien venant d'un domaine externe apporte plus de force qu'un simple lien interne d'une page de votre site vers une autre page de votre site, qu'il n'y a pas lieu de s'étendre sur le sujet.

# 3 - Est ce qu’un lien qui disparaît vous nuit ?

Hypothèse :
Vous ajoutez un lien follow sur Wikipedia. Ce lien est crawlé et pris en compte pour le positionnement de votre site.
Mais un autre l’éditeur l’enlève quelques semaines / mois après.
Cette disparation est-elle mauvaise pour votre positionnement ? Aurait-il mieux valu ne jamais avoir de lien ?

Réponse : Oui, si ce lien est un de vos liens les plus puissants vers la page cible.

Expérience :
Prendre une page naturelle, construire 50 liens pointant vers cette page, et rajouter / enlever un lien de la home page d’un site puissant et bien référencé vers cette page.
Le rythme d’ajout/disparition du lien était de 2 semaines, sur une période de 12 semaines.

Observation :
Google suit précisement la présence ou non du lien, et dépositionne la page en fonction.

Les conclusions de cette expérience ne permettent par contre pas précisément de déterminer si un lien enlevé « redescend »  le positionnement du site plus bas que si le lien n’avait jamais existé.

# 4 - La diversité des domaines liants compte plus que le nombre de liens

Le nombre de domaines uniques contenant un lien externe vers une page donnée est très important dans le classement. Cela suggère fortement qu'une composante de l'algorithme est liée à la diversité des origines de liens.

Pour faire clair : il est préférable d'avoir 50 liens à partir de 50 domaines différents que d'avoir 500 liens qui ne proviennent que d'un seul site.

Curieusement encore, l'algorithme PageRank d'origine ne le prévoyait pas. C'est peut-être pour cela que les domaines recevant de nombreux liens de sites avec de nombreuses pages ayant un gros PR ont si bien fonctionné dans les premières années après le lancement de Google.

# 5 - Les liens dans le contenu transmettent plus de valeur que ceux du footer ou dans les sidebars de navigation

Un brevet que Google a déposé en 2004, et a accordé aujourd'hui, montre une approche quelque peu différente de celle du Pagerank originel, de la valeur que les liens peuvent avoir quand ils apparaissent sur la même page :


Les systèmes et les méthodes compatibles avec les principes de l'invention peuvent fournir un modèle de surf raisonnable qui indique que lorsqu'un internaute accède à un document avec un ensemble de liens, l'internaute suivra certains des liens avec une probabilité plus élevée que les autres.


Ce modèle de surf raisonnable reflète le fait que tous les liens associés à un document ne sont pas tous susceptibles d'être suivis avec la même probabilité. Des exemples de suivi peu probable de liens peuvent inclure les liens vers les "Conditions de service", des bannières publicitaires et des liens sans rapport avec le document.

Vous pouvez consulter cet article de Bill Slawski qui a fait beaucoup de bruit dans le monde du SEO : Google's reasonable surfer ...

Reasonablesurfer

Il semblerait que le classement des documents effectué par Google soit basé sur la distance sémantique et l'analyse développée dans cet article suggère que la valorisation des liens présents au coeur du contenu soit plus forte que ceux des encadrés ou des pieds de page en terme d'impacts positifs et qu'ils permettent de réduire le spam et la manipulation. Beaucoup de webmasters et de référenceurs peuvent certainement attester du fait que beaucoup de liens payants existent dans ces sections de pages et que l'obtention de liens non-naturels à l'intérieur du contenu est beaucoup plus difficile.

# 6 - Les mots-clés présents dans le corps du texte passent plus de valeur que ceux des attributs alt des images

Beaucoup de tests ont montré qu'il est préférable d'utiliser un texte d'ancrage en dur plutôt que les liens image. Cela ne veut pas dire que nous devrions faire uniquement des liens en dur et jeter tous les liens image à la corbeille. Il est juste bon d'être conscient que Google semble avoir cette préférence pour les liens dans le texte et c'est essentiellement du bon sens car un lien dans le texte est clairement visible par l'internaute alors qu'un lien image n'affiche le contenu de la balise alt qu'au survol de la souris.

# 7 - Les liens contenus dans les balises NoScript n'ont aucune valeur

Au fil des années, ce phénomène a été signalé et contredit de nombreuses fois. Des tests ont certainement suggéré que les liens noscript ne passent pas da valeur, mais ce peut ne pas être vrai de façon systématique. Dans tous les cas la quantité de liens global sur le web à l'intérieur cette balise est assez petite.

# 8 - La structure et l’ordre du contenu ont-ils de l’importance ?

Hypothèse :
Quelle est l’importance de la structure d’une page pour le positionnement ? Si trois pages de qualité similaire avaient chacune un paragraphe sur les « trucs bleus » , la première page ayant ce paragraphe en premier, la deuxième comme deuxième paragraphe, et la troisième comme troisième paragraphe, quel serait le résultat ?

L’ordre du contenu compte : le plus haut sera le plus fort

Observations :
Russ Jones > Je trouve ridicule que certains sites puissent être considérés comme duplicate parce que les trente premières lignes sont les mêmes sur toutes les pages : le menu, la navigation et l’adresse de la société.
C’est ridicule.
Mais, sur l’un de nos plus gros sites, quand nous avons déplacé le nuage de tags au dessus de l’article plutôt qu’en dessous, les positionnements ont explosé.

Des référenceurs apportent confirmation à ces affirmations > je confirme et appuie… les premières 30-50 lignes des pages sont le « pot à miel »  du référenceur. Et les liens en footer une vaste plaisanterie.

# 9 - L’ordre des liens est-il pris en compte ?

Hypothèse :
Si une page avait six liens sortants avec la même ancre, vers six pages inconnues des moteurs, si chacune de ces pages ciblait le même mot clef, la page ayant le premier lien serait-elle mieux positionnée ?

Réponse : OUI !!!

Note : à méditer pour les échanges de liens !

Observations :
Cette question a fait l’objet d’une expérimentation in vivo par thegooglecache.com. La même phrase, « Five SEO Excuses »  était l’anchor de cinq sous.domaine.com/page.htm.

Le résultat se passe de commentaires :

Test SEO

Google améliore encore sa prise en compte des liens en fonction de leur position

Google est capable de générer la page visuellement tel qu'un internaute pourrait la voir sur son écran. On vient d'apprendre que les 30 à 50 premières lignes d'un contenu étaient plus importantes que les suivantes. Pour aller plus loin on peut ajouter la notion de ligne de flottaison. Ce qu'on appelle ligne de flottaison est l'endroit où la page est coupée quand on l'affiche dans un navigateur sans utiliser l'ascenseur pour la faire descendre. Tout ce qui se trouve au dessus de cette ligne de flottaison est donc immédiatement visible par l'internaute sans aucune autre action de sa part.

Google semble avoir amélioré son algorithme pour donner plus d'importance aux liens qui se trouvent au dessus de la fameuse ligne de flottaison. Encore une fois c'est une amélioration qui découle du bon sens. Rappelez-vous, dans le premier paragraphe de la seconde partie de cet article je vous disais que les liens placés le plus haut dans le code HTML avaient plus de valeur. Mais ça c'était avant !

En effet, prenons pour exemple un tableau à 3 colonnes, un lien placé en haut de la colonne de droite sera plus bas dans le code HTML qu'un lien placé en bas de la colonne de gauche. Et pourtant le lien en haut de la colonne de droite peut se trouver au dessus de la ligne de flottaison alors que le lien tout en bas de la colonne de gauche se trouvera bien en dessous de cette ligne de démarcation.

Partant de ce constat je ne vois pas comment un moteur pourrait raisonnablement donner plus d'importance à une partie cachée qu'à une partie visible dès l'ouverture de la page. Des améliorations ont été apportées à l'algorithme de Google pour déterminer les positions visuelles des liens. Différents brevets ont été déposés  par Google et ils ne servent pas uniquement à calculer l'importance d'un lien mais également à établir les sitelinks. On en parle dans cet excellent article publié sur Webrankinfo.

Plus...

Mais comment prendre en compte les liens pour un affichage sur mobile ?

Le corportement des internautes tend à utiliser le plus possible les smartphones pour consulter le web. Google s'adapte à ces comportements et a depuis longtemps publié des recommandations à l'encontre des webmasters pour les inciter à réaliser des sites qui peuvent aussi bien être consultables sur un mobile que sur un ordinateur desktop. Le 21 avril 2015 Google annonce la mise en place d'un nouveau critère dans son algorithme. Il s'agit de la mise à jour Mobile-Friendly qui se résume comme ceci :

  • Les sites étant mobile-friendly seront favorisés dans les résultats de recherches effectuées sur des mobiles
  • Les recherches effectuées sur desktop ne seront pas impactées

Mais alors un problème se pose ! Je n'en ai pas encore la réponse et ça reste pour moi une grande inconnue. On sait que Google est à présent capable de simuler une représentation visuelle de la page pour déterminer l'emplacement des liens. Il y a dix ans Google ne s'intéressait qu'à la position du lien dans le code HTML. A présent il est beaucoup plus juste en s'intéressant à la position visuelle du lien dans la page. Cette position peut différer énormément par rapport à sa position dans le code. Reprenons l'exemple d'un site en trois colonnes. A présent Google peut donner plus de force à un lien qui se trouve en haut de la troisième colonne par rapport à un lien qui se trouve en bas de la première colonne. C'est quelque chose d'assez logique après tout.

Mais problème il y a avec les mobiles !

La même page ne va pas s'afficher de la même façon sur un mobile car les colonnes vont s'enchainer les unes à la suite des autres et non de front comme sur un ordinateur de bureau.

Le lien qui se trouve donc tout en haut en droite sur un ordinateur de bureau (parce qu'il est en haut de la troisième colonne) va se retrouver tout en bas sur un mobile.

Alors comment Google tient-il compte de la force relative de ce lien ? Est-ce qu'il prend en compte deux forces distinctes pour calculer deux poids de pages différents : un qui sera utilisé pour les recherches effectuées sur desktop et un second poids qui entrera dans le calcul pour positionner les sites dans les pages de résultats des recherches effectuées sur mobile ?

Je n'en sais rien....