Tests de référencement SEO

Stop le blabla, on veut des preuves !

Testing SEO : pourquoi il est presque impossible de prouver le SEO en faisant des tests

Test référencement SEO

Sur Internet, à propos de référencement naturel / SEO, on lit tout et son contraire :

  • il faut différencier les contenus des balises title et H1, ou au contraire les garder identiques
  • il faut mettre des mots-clés dans la meta description, ou bien c’est inutile vu qu’elle ne compte pas dans le calcul de densité de mots-clés
  • la densité de mots-clés est un facteur de référencement important – ou pas
  • le TTF (topical trust flow) est un facteur, ou pas
  • le temps de présence (dwell time) est un facteur, ou pas
  • le taux de clics (CTR) sur la SERP est un facteur, ou pas
  • etc etc

La plupart du temps, on voit les auteurs affirmer des allégations sans avancer aucune preuve ; on ne compte plus les « tutoriels » basés sur ce genre de faux savoir, en fait sur les croyances infondées des auteurs, sur leur « bon sens », leur « intuition ». Des génies autoproclamés présentent leurs techniques magiques pour « devenir n°1 sur Google », sans aucun élément à l’appui.

Pourtant, la vérité du SEO est cruelle :

  • étant donné que seuls les ingénieurs chez Google et les autres moteurs de recherche ont connaissance de ce que contiennent les algorithmes de Google et consorts
  • étant donné que ces algorithmes sont protégés par la propriété intellectuelle et le secret industriel
  • étant donné que les ingénieurs sont tenus par des accords de confidentialité
  • il en résulte que 100% des référenceurs SEO sont voués à l’ignorance, et que ceux qui prétendent le contraire sont forcément les moins honnêtes

Non seulement on ne peut pas dire la vérité sur tel ou tel facteur de référencement possible, mais en plus on ne peut même pas savoir combien il y en a, ou si tel facteur en est un ou pas.

Quelles sont les sources de savoir en SEO ?

On ne va pas y aller par quatre chemins, je pense qu’il n’y en a aucune. Voici pourquoi.

Google, ses guidelines, ses déclarations

Google lui-même est une source d’information à propos du référencement.

Mais, quel genre de source ? Une source fiable, honnête, transparente, cohérente ? Loin de là.

Google lui-même a pu dire tout et son contraire.

Encore récemment, Google disait qu’il ne fallait pas publier de contenus générés par IA, tout en étant lui-même un fournisseur de contenus générés par IA et en utilisant l’IA dans ses algorithmes, par exemple avec BERT, un « transformer » comme le chatbot ChatGPT. Quand quelqu’un nous dit de ne pas faire ce qu’il fait, on peut se dire que cette source ne mérite pas notre confiance.

Autre exemple : Google dit dans ses Guidelines qu’il ne faut pas s’engager dans des « réseaux de liens » destinés à tromper l’algorithme ; il prétend aussi qu’il a les moyens de savoir si des liens non-naturels sont faits, et pendant quelques années cette entreprise américaine se donnait même le droit d’incarner une sorte de police d’Internet, en distribuant des punitions aux sites dont elle estimait qu’ils « violaient ses guidelines », avec un étrange sens du droit et du contrat vu qu’elle punissait ainsi des gens qui ne s’étaient jamais engagés à respecter lesdites Guidelines… De toute façon, les référenceurs SEO savent bien que la stratégie de netlinking marche, même si elle enfreint les lignes directrices du trust Google.

Par ailleurs il arrive souvent que des déclarations provenant de Google se contredisent entre elles. Un tweet de John Muller contredit un live de Matt Cutts qui contredit les Guidelines.

Et la plupart du temps, quand Google ne nous ment pas, il nous cache la vérité sur son fonctionnement, ses changements etc ; on comprend bien pourquoi, car s’il disait publiquement comment il marche, il laisserait ses concurrents l’imiter et il laisserait aussi des millions de webmasters et de référenceurs exploiter ses failles.

Au final il est évident que Google est une source indigne de confiance, frisant souvent la malhonnêteté, opaque et incohérente. Faire du SEO « white hat » en se basant sur ce fatras de demi-vérités contradictoires, c’est se condamner à l’échec.

Les autres moteurs ne font pas mieux : aucun n’étant open-source, on ne peut jamais savoir comment ils classent les résultats.

La communauté SEO : gourous et faux bon sens

La communauté SEO croit savoir énormément de choses. Mais si on essayait de savoir comment ils savent ce qu’ils savent, on verrait probablement qu’il s’agit essentiellement de transmissions de croyances. Tel gourou américain ou français a dit que, untel le répète, 10 autres les répètent, et cela devient une croyance largement partagée.

A défaut de moyens faciles pour établir des vérités, le principe d’autorité joue à plein. C’est vrai parce que Ted Kubaitis, Kyle Roof, Matt Diggity, Olivier Andrieu, l’ont dit. Mais où sont les preuves ?

Youtube fourmille de vidéos avec des titres et des vignettes putaclic, du genre « avec cette technique SEO j’ai fait exploser mon trafic ». On regarde, et la seule preuve avancée est un cas précis, et en général la vidéo ne donne aucune info concrète sur le type de site, le contexte, la période de test, etc. On doit donc croire le magicien sur parole, tout en le soupçonnant fortement de simplement brasser du vent pour faire des vues et grappiller quelques euros de pub, et des clients crédules.

Dans un autre cas de figure, des affirmations datant d’il y a 10 ou 20 ans étaient probablement vraies à l’époque, mais comme les algorithmes ont changé, elles ne le sont plus mais continuent à circuler, fausses et périmées. Machin en est sûr, avec pour preuve un article signé Babar l’éléphant, daté de 2013.

Très souvent, le référenceur SEO livré à lui-même s’en remet à son bon sens, à sa logique, à sa rationalité, sans voir que cette méthode n’offre aucune garantie de vérité in fine. En effet, ce n’est pas parce qu’un raisonnement a l’air logique que Google l’implémente, et il se peut même que Google fasse des choix contre-intuitifs, ou s’interdise des choses par nécessité technique, économique ou légale.

Epistémologie du testing SEO comme mission impossible

Tester les facteurs de référencement, seule méthode viable

Dans ces conditions, le test des facteurs potentiels de référencement apparait comme la seule méthode viable pour établir des vérités en SEO. Inspiré des sciences expérimentales, le test pourrait, seul, permettre de confirmer ou infirmer des hypothèses, malgré l’impossibilité de voir dans la « boîte noire » qu’est Google, mais simplement en analysant ce qui en sort.

Il s’agit :

  • de formuler des hypothèses sur l’existence de certains facteurs de classement
  • de réunir les conditions pratiques pour tester ces hypothèses
  • de conclure à l’existence ou à l’inexistence d’un facteur, et à son « poids » en tant que facteur

Cependant cette méthode d’épistémologie (science de la science, savoir sur le savoir), alléchante en théorie, se heurte très vite à d’immenses difficultés concrètes.

Le testing SEO, une méthode impossible ?

Quand on y réfléchit à deux fois, on se rend vite compte que le testing SEO rencontre des difficultés majeures.

Dans les sciences expérimentales, on doit pouvoir isoler les phénomènes qu’on étudie, et réaliser des expériences en s’assurant qu’elles soient reproductibles par des tiers.

Par exemple, j’électrolyse de l’eau avec une substance chimique, cela produit un gaz – de l’hydrogène – qui explose si j’approche une flamme. Si quelqu’un refait cette expérience, tout se passe de la même manière. On peut en conclure que l’électrolyse produit de l’hydrogène et que l’hydrogène est inflammable. Si c’était faux, on pourrait le prouver en faisant l’expérience.

C’est ce qu’on appelle le théorème de falsifiabilité, fondateur de l’épistémologie moderne (science du savoir).

Mais en SEO, tester de manière reproductible est une tâche quasiment impossible. Voici pourquoi.

Impossible d’isoler les phénomènes

D’abord, il n’est tout simplement pas possible de tester autrement qu’en conditions réelles – où tout est emmêlé.

On ne peut pas « isoler » le phénomène de l’indexation ou du classement, on ne peut pas mettre 10 pages d’un site de test en concurrence seules face à Google, on ne peut pas priver les algorithmes de Google du contexte de l’Internet réel. Google est une boîte noire impénétrable qu’on ne peut pas manipuler à sa guise.

Conséquence : quand on constate qu’une variable fluctue, on ne peut en général pas prouver à 100% que tel facteur a causé ce changement, ni dire exactement dans quelle mesure.

Tout change tout le temps

On rêverait de pouvoir isoler un facteur, présenter une page à l’algorithme et voir quel score elle obtient, combien de clics elle fait. Cela supposerait que tous les paramètres de l’expérience restent constants alors que la seule chose qui change serait le facteur testé ; or, sans même parler du fait que la comparaison est interdite par le fonctionnement même de Google (si on publie 2 pages similaires, Google va en éliminer une), la comparaison est toujours impossible car tous les paramètres sont hors de contrôle et changent tout le temps :

  • les algorithmes de Google
  • le comportement des utilisateurs
  • la concurrence

Voyons ces variables de plus près.

Les algorithmes de Google… et ses règles officielles

J’ai lu quelque part que Google apporterait des modifications à ses dizaines d’algorithmes, environ 500 fois par an. Je n’ai évidemment aucune preuve de cela. Mais imaginons que cela soit vrai. Cela ferait une moyenne de presque 2 changements par jour, pour simplifier. Conséquence sur nos tests : si on teste une page le 1er du mois, l’algorithme connait une cinquantaine de modifications d’ici la fin du mois. Allez conclure après ça sur le fait que tel changement fait sur une page a causé la hausse, la baisse ou la stagnation des impressions, des clics, du click-through rate ou de la position, et que ce n’est pas dû, entre autres, à un changement dans l’algorithme.

On sait que Google fait aussi de grosses mises à jour (core updates), plusieurs fois par an, auquel lui ou la communauté SEO donne des noms, comme récemment la « Helpful content update ». Certaines updates (par exemple la Medical update) ont divisé ou multiplié le trafic de certains sites par 3 ou plus. Si vous testez au milieu d’une mise à jour – dont Google ne donne jamais les vraies dates de déploiement – votre test n’a plus aucune valeur.

De même, alors que les algos changent en secret en profondeur, en surface les règles officielles changent aussi régulièrement. Telle pratique est soudain bannie ou permise, ou jugée différemment. Et quand vos pages entrent dans le champ des radars de Google ou en sortent, vous n’avez en général aucune info à ce sujet.

Enfin, il semble bien que les algorithmes de Google favorisent par construction la variabilité. Si vous avez l’habitude d’inspecter des stats, vous savez de quoi je parle : aucune courbe n’est jamais plate, tout oscille tout le temps, à toutes les échelles, quel que soit le critère. Même une page qui se classe en moyenne n°1 sur un mot-clé n’a pas une position 1 tout court, mais 1 virgule quelque chose : sur une partie des impressions de la SERP sur ce mot-clé, le classement change – c’est probablement une manière pour Google de maintenir une compétition entre les pages et les sites, et de donner une chance de monter aux challengers ? Simple hypothèse invérifiable…

Les utilisateurs et leurs recherches changent

Les utilisateurs représentent une source majeure de perturbation pour toute personne désireuse de tester et prouver des hypothèses SEO.

En effet, le comportement des utilisateurs n’est JAMAIS constant.

Fluctuations temporelles

On constate des fluctuations importantes simplement à regarder les stats d’un site, d’abord sous l’angle temporel :

  • les requêtes varient en fonction de l’heure de la journée : souvent le trafic s’effondre la nuit et culmine à certaines heures du jour
  • les requêtes varient en fonction du jour de la semaine : on observe souvent que le trafic s’effondre certains jours (le week-end, pour un site d’entreprise fermée le week-end) et culmine d’autres jours
  • les requêtes varient en fonction du jour dans le mois : une partie du trafic Internet varie en fonction de la solvabilité des ménages : le trafic augmente sur les sites e-Commerce dès lors que la population salariée vient de toucher son salaire ou est « en fin de mois » avec un budget contraint
  • les requêtes varient en fonction du mois : dans la plupart des secteurs ordinaires hormis les activités saisonnières, le trafic est faible pendant les mois d’été et en décembre, et il est haut les mois d’hiver
  • les requêtes varient en fonction de la météo : quand il fait froid et / ou pluvieux, les gens sortent moins et sont plus nombreux sur Internet ; dès qu’il fait beau, une partie de la population délaisse l’ordi et le smartphone, aboutissant à une chute des recherches, donc des impressions et des clics
  • les requêtes varient en fonction des années : on ne peut évidemment pas comparer une année de confinement pour cause de pandémie, avec une année d’inflation, de guerre, ou de reprise économique
  • etc
Fluctuations thématiques

Par ailleurs, le contenu de ce que les populations cherchent sur Internet évolue en permanence.

Par exemple, la télémédecine est en plein boom depuis quelques années, et « Doctolib », « Qare »,  « téléconsultation », « télémédecine », sont devenus des mots-clés à gros volume de recherche, alors qu’ils étaient inexistants il y a 10 ans.

Certains thèmes montent lentement, par exemple les thèmes liés au changement climatique et à ses diverses solutions : permaculture, agroforesterie, recyclage, stockage du carbone, etc etc, tout ce vocabulaire a émergé du néant. Si on mesure une page traitant de ces thèmes et que le volume d’impressions et de clics augmente au fil des mois, on pourrait avoir la fausse impression qu’on aurait fait de l’excellent travail de référencement, alors même que la qualité SEO de la page aurait pu se dégrader aux yeux du moteur, sans empêcher la hausse mécanique des clics et des impressions causée par l’intérêt croissant de public. Ma page peut être deux fois moins aimée par Google, mais le volume de recherche ayant décuplé, mon trafic a monté…

D’une manière plus ponctuelle, des médias jouent un rôle pour populariser des thèmes et des mots. Si un gros site de SEO comme le Search-Engine Journal publiait un article sur « comment augmenter son trafic avec des bananes flambées », on verrait une explosion ponctuelle des requêtes de type « SEO + bananes flambées ». Et si ma page fictive « Le SEO au bon goût de bananes flambées » bénéficiait de ce boom des requêtes, je ne serais pas pour autant autorisé à conclure que ma page est mieux optimisée qu’avant.

Fluctuations des modalités de recherche

Récemment, l’émergence des intelligences artificielles comme ChatGPT a commencé à modifier les pratiques de recherche, donc les règles du jeu du SEO. En effet, une partie de la population fait maintenant des recherches sans visiter de moteurs de recherche et de sites web, juste en posant des questions à ChatGPT. Mécaniquement, le trafic moyen et les impressions des sites web auront donc probablement tendance à baisser ces prochains mois – et des SEOs vont se faire virer parce que leurs employeurs mécontents vont attribuer cette baisse de trafic à leur référenceur plutôt qu’au public.

Il y a quelques années, l’apparition de la recherche vocale avait déjà eu un impact conséquent. On passait des quelques mots clés d’une recherche écrite en style télégraphique, à toute une phrase en langage oral.

Au final, on voit bien que les utilisateurs causent une incertitude majeure et fondamentale. Si une page a fait 10 clics un jour et 20 clics le lendemain, c’est peut-être tout simplement parce que le volume de recherche a doublé, pas parce que l’optimisation a marché.

La concurrence

La troisième chose qui change tout le temps, c’est la concurrence.

  • Un site concurrent publie ou met à jour un super contenu qui vient vous griller des places.
  • Une page ou tout un site disparaissent temporairement du classement en raison d’un problème technique.
  • Un concurrent engage un référenceur qui optimise certains aspects mais pas d’autres, ce qui change vos propres positions.
  • Un concurrent passe à la radio et son site fait soudain l’objet de nombreuses recherches, qui donnent un boost temporaire à ses pages dans les SERPs.
  • Etc etc.

Tous les jours, des sites et des pages apparaissent, disparaissent, tombent en panne, ressuscitent, s’améliorent ou se dégradent.

Donc en permanence la concurrence s’agite sur des milliards de mots-clés, ce qui amène Google à modifier vos classements. Quand une de vos pages perd du trafic alors qu’elle n’a pas changé d’une virgule, cela peut s’expliquer par le fait que l’algorithme a changé, que les utilisateurs ont modifié leur comportement, ou que la concurrence a produit une ou plusieurs pages qui plaisent mieux à Google. On n’a aucun moyen de savoir tout cela…

Le SEO : une équation aux multiples inconnues

Ainsi, en SEO la position qui détermine en partie les impressions et les clics reflète le croisement de plusieurs facteurs aussi inconnus qu’incontrôlables et en évolution permanente :

  • le fonctionnement de l’algorithme et le poids accordé aux multiples facteurs
  • le comportement des utilisateurs
  • l’état de la concurrence de milliards de sites sur des milliards de mots-clés

Et donc, tester revient à tenter un calcul audacieux sur une équation de type n =  x * y * z, n étant la seule variable connue : les clics, les impressions, les positions. Autant dire que mathématiquement on va finir au bout d’une corde.

L’imperfection des indicateurs (KPI)

Pardon d’empirer encore une situation déjà bien désespérée, mais un autre aspect des choses vient les rendre encore plus compliquées : le fait qu’on n’ait aucun contrôle sur la plupart des indicateurs possibles.

Ainsi, la Google Search Console ( = GSC) prétend nous fournir des informations sur nos sites. Mais sur chacun des indicateurs donnés, on s’aperçoit qu’il y a des zones d’ombres, des lacunes d’information, des ambiguïtés.

Par exemple, la GSC fournit des listes de mots-clés associés à chaque page. Mais, cette liste n’est jamais complète et pire, la grande majorité des mots-clés ayant abouti à des clics n’est tout simplement pas représentée. On voit que telle page a fait 100 clics mais quand on regarde les requêtes, on compte moins de 10 clics attribuables à des mots-clés : tout le reste est probablement de la longue traîne, des requêtes longues en langage naturel, qui ne sont pas considérées techniquement comme des mots-clés même si elles en contiennent forcément. Pourquoi Google ne nous donne-t-il pas la liste de toutes les requêtes ? Peut-être pour nous empêcher de faire du SEO !

Autre exemple, les impressions et les positions : on n’a qu’une partie de l’information, on ne peut jamais savoir quel était la position précise d’une page sur un mot-clé, Google ne donne que des séries d’impressions ayant une position moyenne. Le meilleur niveau de précision qu’on ait, c’est de mettre un filtre avec la Google Search Console sur une page précise, une requête précise, un jour précis : on verra qu’on avait des dizaines d’impressions ayant en moyenne telle position, mais on ne peut pas aller au-delà de ce niveau de détail imprécis. On se heurte à un mur de flou statistique.

Par ailleurs, on voudrait par exemple tester les métriques utilisateur : temps de présence (dwell time), taux de clic de l’utilisateur sur les pages du site. Sauf que Google ne nous renseigne nulle part sur ces données. (Si vous objectez en me parlant de Google Analytics, j’objecterai en disant que depuis le RGPD, ça ne mesure plus qu’une petite partie du trafic et ne donne donc plus que des estimations grossières.) On ne sait même pas si Google utilise ces facteurs ni comment il les mesurerait, même si certains SEO affirment qu’il le fait.

Une donnée aussi basique que le nombre de clics par page ou pour un domaine échappe elle aussi à l’exactitude : rien ne prouve que les chiffres donnés par Google (et encore moins par d’autres services comme Ahrefs, Semrush etc) correspondent exactement à la réalité du trafic – et n’incluent pas par exemple du faux trafic de bots se faisant passer pour humains. J’ai parfois dans mes stats des pics inexplicables qui semblent montrer que Google commet des erreurs de comptage, qui faussent les calculs. Quelle partie des données est fautive ? Aucune idée.

Faire des tests SEO envers et contre tout

« Tout le monde savait que c’était impossible, jusqu’au jour où celui qui l’ignorait l’a fait ! »

Aussi difficile que soit la tâche, il reste, je pense, possible de réaliser des tests SEO, à condition de garder en tête toutes les objections précédemment soulevées, de rester prudents dans l’analyse et de se garder de tirer des conclusions hâtives dès qu’on a un début de résultat.

Les tests en lorem ipsum ou en charabia

Une méthode possible pour faire des tests SEO valides consiste à tester des facteurs potentiels indépendants de l’internaute.

On va donc éliminer une des principales variables, supprimer une inconnue de l’équation.

Pour cela, on va avoir recours à des textes écrits soit en lorem ipsum (mais dans ce cas, il faut utiliser du faux latin sans « lorem ipsum » justement, sous peine de se trouver en concurrence avec des milliers de pages en lorem ipsum classique) ou mieux, en charabia pur et simple. Il existe en effet des générateurs de faux texte dont les mots, de type « defgulit alo efatoulki » (j’écris n’importe quoi, pour l’exemple).

Ce stratagème présente de nombreux avantages :

  • comme le texte, les titres Hn, la balise title, la meta description, la catégorie, sont faits de mots qui n’existent pas, il y a 0 concurrence donc 0 perturbation causée par elle
  • cette non-concurrence ne varie donc pas du jour au lendemain
  • l’inexistence des mots fait que le volume des recherches est de 0 – la variabilité des volumes de recherche se trouve ainsi chassée de l’équation

Ainsi, j’ai pu tester le poids des balises H1, H2, H3, H4, H5 et H6, et obtenir la preuve qu’un mot-clé en H1 se classe devant ce mot-clé en H2 (mais n’allez pas croire que le reste du résultat est aussi logique que ce que je viens de dire…)

Pour tester, j’ai inventé un mot-clé que j’ai inséré dans du faux latin. J’ai fait autant de textes, tous de même longueur, que de balises Hn à tester.

Google a miraculeusement indexé mes inutiles pages, et quand j’ai cherché mon mot-clé une semaine plus tard (il avait au départ 0 occurrence), Google m’a classé mes pages dans l’ordre des balises. Bingo. J’ai ainsi pu tester l’algorithme dans des conditions à peu près pures et neutres, sans pollution mutifactorielle.

Malheureusement, ce type de test a des limites :

  • si Google refuse d’indexer tout ou partie du charabia, ou s’il désindexe tout ou partie (il a fait les deux !), le test devient non-conclusif
  • les facteurs liés à l’internaute (ex : temps de présence (dwell time), click-through rate (CTR) sur divers appareils, etc) restent par définition non-testables avec cette méthode
  • les variations dues à l’algo de Google restent actives : rien ne prouve que le même test 2 mois plus tard ne donnerait pas un résultat différent

De plus, même mon résultat doit être interprété avec prudence :

  • le test n’a été fait qu’une fois ; il faudrait recommencer suffisamment de fois pour constater que le résultat ne varie pas et qu’il y a bien là-dessous un réglage algorithmique, une constante fiable
  • le test n’a, par définition, aucun contexte sémantique : Google ne peut pas classer la requête ni la page en informationnel, navigationnel, transactionnel, commercial, et rien ne dit que les réglages de l’algo soient universels, plutôt que définis dans des contextes, voire des secteurs d’activité (on sait que Google utilise la notion de YMYL, your money your life, pour distinguer les sites ayant un impact potentiel sur la vie et les finances des utilisateurs, et qu’il ne traite pas de la même manière un blog privé qu’un site de médecine ou d’assurance)

Bref, dès qu’on croit savoir quelque chose de sûr en référencement SEO, on doit admettre qu’on ne sait toujours pas grand-chose.

Les tests en conditions réelles

On peut aussi faire des tests en conditions réelles, en acceptant humblement leur fondamentale imperfection.

Ainsi, on peut regarder si le fait d’ajouter ou supprimer un élément change, de manière significative et durable, les résultats d’une page.

Par exemple, on peut :

  • créer 10 liens depuis 10 sites tiers sur 10 serveurs différents vers une page donnée, et voir si ça fait évoluer les positions, les impressions, le trafic
  • répéter un mot-clé 10 fois de plus sur une page existante, et voir comment les métriques évoluent
  • ajouter un balisage Schema.org en JSON-LD et voir ce que ça change

Comme je l’ai démontré plus haut, les résultats de ces tests devront rester sujets à caution, et il faudra répéter les tests sur plusieurs sites, de divers types (blog, ecommerce, etc), dans divers secteurs d’activité, pour s’autoriser à pencher en faveur d’une conclusion si les résultats vont toujours dans le même sens.

Une limite évidente de cette méthode est qu’elle peut aboutir à des résultats contradictoires.

Par exemple, on peut faire des liens vers une page et constater que le trafic bondit la semaine d’après, ou au contraire que le trafic ne bouge pas d’un iota eu égard à sa variabilité habituelle. Conclusion : il est difficile d’en conclure quelque chose.

Certains tests se heurtent aussi à des limites pratiques :

  • ils sont très chronophages à mettre en place
  • ils sont coûteux

Par exemple si vous voulez tester l’influence de 10 liens entrants (backlinks) et que vous les achetez 50€ pièce, le test vous coûte la bagatelle de 500€. Or cela ne teste qu’une seule page, dont les résultats peuvent varier pour mille raisons. Pour rendre le résultat plus sûr, il faut donc tester sur 10 pages, 20 pages ? Et cela coûte dorénavant 5 à 10 000€, pour avoir une info qui ne sera peut-être plus valable demain…

Et si vous voulez déterminer si 10 pages faisant des liens internes vers une page principale en mode topic cluster font monter le trafic de cette page, et que la rédaction de chaque article vous prend 4h, alors le test vous coûte 40h de travail, soit environ une semaine de revenu.

ça fait chéro l’info dans les deux cas.

Les tests multifactoriels

Le référenceur SEO américain Ted Kubaitis publie le site TopSEOFactors qui recense 87 353 facteurs de référencement potentiels.

Vous avez bien lu : 87 353.

Donc si on voulait des preuves : 87 353 tests à faire et refaire x fois pour sembler conclusifs. Seul un milliardaire avec une armée d’experts sous la main viendrait à bout d’une tâche d’une telle ampleur. Autant dire que quand les gourous du SEO font mine d’avoir tout compris, vous savez d’avance qu’ils ne vendent que du vent. Aucun de nous n’a jamais testé l’ensemble des facteurs possibles. Tu dis le contraire = TU MENS.

Le site Top SEO Factors est très intéressant par sa méthode : il fait l’hypothèse que des facteurs ont une influence sur le classement et mesure des corrélations entre la présence de ces facteurs sur des sites qui participent à l’expérience et leur classement sur Google. Il refuse de mesurer autre chose que des corrélations : par exemple, entre les positions dans le top 10 des SERPs et tel facteur on-page ou off-page : l’existence et le nombre de mots-clés LSI, ou de données structurées, ou de backlinks, etc. Charge à chacun d’en tirer les conclusions qu’il veut !

Un résultat important de cette expérience massive et continue (le site tourne depuis des années et mesure des dizaines de milliers de sites, utilisateurs du logiciel SEO Cora), est que, quand on regarde quels facteurs corrèlent le plus avec de bonnes positions, on constate qu’il s’agit plusieurs fois… d’une combinaison de facteurs.

Ainsi, le fait d’utiliser 200 facteurs de classement, ou 100, ou 50, donne à une page web de meilleures chances d’arriver dans le top 10.

Si ces résultats signifient vraiment quelque chose, alors cela a pour conséquence qu’il faudrait pouvoir tester sur combien de facteurs une page ranke, et pour améliorer le trafic il s’agirait d’améliorer le nombre de facteurs en jeu.

Là une fois de plus on se rend compte du travail de titan qu’une telle opération représente. Pour tester si une combinaison marche, il faudrait par exemple que j’augmente la densité de mots-clés, que je place des LSI et des variations des mots-clés dans les Hn, que j’ajoute des données structurées Schema.org de plusieurs types (Organization, Website, Webpage, Person, etc), que je fasse du netlinking, etc etc, sans même être sûr que chacun de ces facteurs a un effet individuel. Bref, pour quelques centaines de clics en plus j’en ai pour des mois de travail.

Les tests impossibles ou risqués

Certains tests s’avèrent quasiment impossibles à réaliser, ou tout du moins risqués : si on les fait sur des sites réels, je veux dire ayant un enjeu concret, on prend le risque d’entrer dans les radars anti-fraude de Google, et de subir une sanction algorithmique et manuelle pour tentative de manipulation des algorithmes.

Un test modérément risqué : le spinning d’articles

Certains risques modérés valent le coup. Par exemple, on pourrait « spinner » c’est à dire réécrire un article, en changeant le vocabulaire, les titres, ou les images, pour voir quelle version de la même page ranke mieux. Mais ce faisant, on prend le risque que le contenu alternatif soit détecté comme « duplicate content » (et Google interdit explicitement le spinning), et donc pas indexé, ou qu’une des versions soit désindexée, interdisant donc la comparaison à moyen-terme.

Or pour qu’un tel test soit conclusif il faudrait que toutes les versions de la page aient le même âge et soient donc indexées au même moment, car l’âge d’une page est probablement un facteur, ou au minimum c’est un fait avéré que pendant les premières semaines d’existence d’une page elle obtient en moyenne très peu de trafic car Google se contente de la tester à bas volume.

Il est donc quasi impossible et modérément risqué de faire des comparatifs A/B sur des rédactions et donc sur les facteurs on-page.

Un test sans risque, et conclusif : déplacer un article sur un domaine à plus forte autorité

Pourtant, ça n’empêche pas de faire des comparatifs avec la même page. On veut par exemple tester l’influence de l’autorité du domaine sur le succès de la page.

J’ai fait un test conclusif en prenant une de mes pages, publiée sur un site sans autorité (genre 3/100 selon Ahrefs), en la déclarant supprimée à Google via un 410 gone en .htaccess, puis en la republiant quelques semaines plus tard sur un autre site, à l’autorité de 30/100.

Là, j’ai eu l’agréable surprise de découvrir que ma page qui m’avait coûté 2 jours de travail et ne rankait pas du tout sur le site sans autorité devenait après quelques semaines une des meilleures pages de mon site à autorité moyenne.

Du coup, j’ai refait la même opération de « migration de contenu » plusieurs fois avec d’autres pages sur d’autres sites dans des secteurs d’activité différents et en moyenne, le trafic montait sérieusement en fonction de l’autorité du domaine. J’en ai donc conclu que l’autorité du domaine était probablement un important facteur de classement.

Un test risqué : netlinking, backlinks, ancres de liens

Persuadé par des autorités SEO, par mon « bon sens » et par ma propre expérience que les backlinks sont un facteur important, j’ai testé le fait d’en ajouter, avec des résultats mitigés.

L’acquisition de liens a fait soudain monter les positions, les impressions et les clics d’une url, mais d’autres fois a semblé n’avoir aucun effet. Dans ces cas-là, j’ai préféré ne pas insister. En effet, il aurait fallu acheter des liens, donc enfreindre les règles de Google, et prendre le risque de subir une pénalité. Il faudrait tester sur un faux site en mode « charabia + mots-clés » et voir par exemple combien de backlinks sont nécessaires pour qu’une page ayant un mot-clé présent une seule fois dans un H2 passe devant une page ayant ce même mot-clé présent une fois dans le H1.

Autre exemple comparable : on pourrait vouloir tester l’influence des ancres de liens. Hypothèse : si j’ai 100 liens entrants avec l’ancre « chat angora », est-ce que ma page « chat angora » ranke mieux ? Le risque là aussi consiste en une sanction possible car ces liens au profil anti-naturel clignoteraient comme un gyrophare géant aux yeux de Google.

La communauté du netlinking donne des consignes, sur les plateformes d’échanges de liens par articles sponsorisés, par exemple : ne pas utiliser des ancres optimisées, ou semi-optimisées. A mon avis, la plupart du temps ces consignes « à respecter impérativement » se basent sur des croyances plutôt que sur des faits. On ne sait tout simplement pas si Google fait une analyse du « profil de liens » d’une url ou d’un site, et quelles conclusions il en tirerait.

Méthodologie de tests SEO conclusifs

Synthétisons maintenant ce qui a été dit plus haut, et élaborons les conditions et les critères de tests SEO véritablement conclusifs.

Un test sera considéré comme valable quand ces conditions seront réunies :

  • Le test est répété un certain nombre de fois
    • On ne peut pas conclure sur 1 ou 2 tests car trop de facteurs tiers varient
  • Le test est répété dans des contextes thématiques différents
    • Dans des domaines YMYL ou pas (médecine, droit, ecommerce, ou domaines sans enjeu vital ni financier)
  • Le test est répété sur des types de pages différents
    • Correspondant aux grands types de requête : informationnel, commercial, transactionnel
    • Correspondant aux types de contenu : tutoriel, article de blog, média / webzine, fiche-produit, catégorie produit…
  • Le test est réalisé à des périodes différentes
    • Par exemple on fait des tests similaires pendant 3 mois sur chaque trimestre d’une année
    • On fournit les dates de début et de fin du test
  • Le test fournit des informations sur les principaux facteurs de la page et du site
    • Nombre de pages du site, autorité du domaine, autorité de l’url, nombre de mots de la page, nombre de liens du site et de la page, etc etc

A ces conditions et quelques autres, on pourra commencer à affirmer des vérités – relatives et éphémères – sur le référencement SEO.

C’est complexe et difficile, mais l’enjeu en vaut la peine :

  • quand on sait que telle stratégie ne marche pas parce que tel pseudo-facteur de référencement n’en est pas un, ou faible, on économise beaucoup de temps voire d’argent à s’abstenir de la déployer en vain
  • et surtout quand on est quasiment certains qu’une stratégie marche parce qu’elle se base sur des facteurs forts, on y gagne du trafic donc du revenu dès lors qu’on sait convertir

Autant être clair : je n’ai quasiment jamais fait mes tests en respectant 100% de ces conditions. Trop compliqué, trop long, trop coûteux. J’ai donc fait au mieux en fonction de mes moyens.

Je vous laisse maintenant découvrir mes tests :

https://boutique-wp.fr/seo/tests-seo/

Collaborations

Devant l’ampleur de la tâche, je suis ouvert à des collaborations ponctuelles avec d’autres référenceurs SEO ou même avec des amateurs avancés.

Si vous voulez participer à la prochaine campagne de tests, contactez-moi !

Qu'avez-vous pensé de cet article ?

Cliquez sur une étoile pour donner votre avis

Avis moyen 4.5 / 5. Nombre d'avis donnés 6

Soyez le premier à donner votre avis



Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Besoin d'un hébergeur ?

Convivial, sympa, fiable, et pas cher,
O2Switch me semble être la meilleure offre actuellement sur le marché français.
C'est pourquoi j'y héberge tous mes sites. Hébergement O2Switch
Panier
//
Retour en haut