La Google Search Console raconte n’importe quoi sur les erreurs 404 (et 410)

404 page not found

Un problème massif d’erreurs 404 dans la Google Search Console

Je prends Google en flagrant délit de raconter n’importe quoi dans sa documentation officielle.

A la base, j’étais en train de chercher pourquoi le rapport d’erreurs 404 de Google Search Console est complètement faux.

En effet, ça fait des semaines que je travaille à nettoyer les 404 du site web d’un client. Ce site a changé plusieurs fois de nom de domaine et de structure d’urls ces 10 dernières années, de sorte que des MILLIERS d’erreurs 404 se sont accumulées.

Pour les corriger, j’ai mis en place, sur des centaines d’urls :

  • des codes 410 Gone, qui indiquent aux robots d’indexation que l’url demandée a tout simplement disparu
  • et des redirections 301, qui leur disent qu’une ressource qui avait l’url A doit dorénavant être trouvée à l’url B

Malgré ces modifications, mises en oeuvre depuis des semaines, le rapport d’erreurs 404 de Google Search Console contenue à m’aligner des faux positifs par centaines.

En effet, non seulement ce rapport, très lent, n’est mis à jour que tous les 3 à 10 jours (!!!), mais de plus il classe en 404 des tas d’urls qui, dès qu’on les clique, sont en fait des 301 ou des 410.

Et j’ai eu beau lui demander de « valider les corrections », cela ne semble pas faire grand-chose : il ne reprend pas la liste au complet, il semble s’arrêter en cours de route après être tombé sur quelques 404 bien réelles ; et par conséquent, il ne nettoie jamais complètement la liste. C’est juste déconcertant. Et ça fait des mois que ça dure !!

Google raconte n’importe quoi

Pas d’impact des 404 sur les performances ? Si !!!

Donc, en cherchant à résoudre ce problème, ou au moins à en savoir plus, je suis tombé sur la documentation du « centre d’aide », qui porte bien mal son nom vu qu’il aligne les contre-vérités (on dirait du chatGPT dans ses mauvais jours !)

Ce centre d’aide, sur une page nommée Erreurs 404 (« Page introuvable »), affirme :

En règle générale, les erreurs 404 n’ont aucune incidence négative sur les performances de votre site dans les résultats de recherche. Vous pouvez les ignorer sans problème si vous êtes certain que ces URL ne doivent pas apparaître sur votre site. Il est important de s’assurer que ces URL et les autres URL non valides renvoient un code de réponse HTTP 404 correct, et qu’elles ne sont pas bloquées par le fichier robots.txt du site.

Les premières affirmations sont des demi-vérités. En effet, la page d’information de Google ne fait aucune mention du concept de budget crawl : or celui-ci est bien réel, et aura bien un impact sur les performances d’un site dans les résultats de recherche.

Le budget crawl, c’est comme si Google attribuait à chaque site un montant maximum de visites.

Ce concept est confirmé par l’existence même des longs délais de mise à jour de la liste des 404 : si les bots de Google bossaient en permanence et de manière illimitée au service de tous les sites web, alors la liste des 404 ne serait pas établie tous les 3 à 10 jours, mais en permanence.

Si donc un site a tellement de 404 et d’erreurs d’indexation que la grande majorité des visites des Google bots consistera à ne rien indexer du tout, cela signifie que l’indexation des nouvelles pages, des pages modifiées, des liens internes, des liens externes, sera retardée pendant des semaines voire des mois, de sorte qu’il y aura bel et bien un impact INDIRECT du nombre des erreurs 404 et autres sur les performances du site dans les résultats de recherche. Et d’une !

Ensuite, imaginons la situation suivante : un webmaster se serait planté en faisant un remplacement du nom de domaine de son propre site, de sorte qu’il aurait remplacé toutes les urls valides des liens internes de son site par des urls invalides, donc par des 404. Que se passerait-il alors ? Ceci :

  • le taux de clics internes tomberait à 0
  • le temps de visite moyen chuterait, vu qu’on ne pourrait plus naviguer d’article en article

Or, ces 2 métriques comptent très probablement dans l’algorithme de classement top secret de Google.

Donc, « les erreurs 404 n’ont aucune incidence négative sur les performances de votre site dans les résultats de recherche » ? J’y crois pas une seule seconde. Ces erreurs ont forcément plusieurs types d’impact indirect.

Il faut rappeler que les règles de classement de Google sont TOTALEMENT OPAQUES, et que Google n’a aucun intérêt à nous en parler (on s’en servirait pour tricher). Il a même tout intérêt à nous faire croire n’importe quoi.

Faux : « Le rapport devrait cesser d’afficher l’erreur 404 au bout d’environ un mois »

Un peu plus loin sur la même page d’ « aide » (ou appelez ça de la désinformation si vous voulez), Google affirme cette contre-vérité :

Si une page a été supprimée et ne possède ni page de substitution, ni équivalent, il convient d’afficher une erreur 404. Le rapport devrait cesser d’afficher l’erreur 404 au bout d’environ un mois.

Je peux vous affirmer que cette affirmation est tout à fait fausse.

Le site dont j’essaye de nettoyer les 404 en a plus de 1000, et j’en ai fait le premier diagnostic il y a 10 MOIS de cela. D’ailleurs dans le dernier paragraphe de sa page d’aide, Google affirme aussi :

Une fois que le robot Google parvient à explorer une URL, il peut essayer de l’explorer indéfiniment.

Or c’est bien ce comportement qu’on observe ! Le bot, buté comme un âne, revient encore et encore indexer les mêmes 404.

Les gens qui haïssent la logique trouveront tout-à-fait naturel que cette affirmation contredise frontalement celle qui dit que les 404 disparaitront en un mois…

Sur un autre site que je gère, Google Search Console signale des 404… d’urls qui n’ont jamais existé sur mon site. La liste stagne depuis des années ! A quoi bon nous signaler ces fausses erreurs, qui ne viennent ni de liens entrants, ni de liens internes ? Cela n’a aucun intérêt mais Google le fait, sans qu’on puisse rien y changer. Il laisse croire aux débutants qu’il y a un problème alors qu’il n’y en a pas.

Arbitraire et stupide : « nous traitons les codes d’erreur 410 (page supprimée) de la même façon que les codes d’erreur 404 (page introuvable) »

Un peu plus loin, la même page affirme :

Si vous avez supprimé définitivement un contenu et que vous ne comptez pas le remplacer par un contenu nouveau et similaire, laissez l’ancienne URL afficher un code 404 ou 410. À l’heure actuelle, nous traitons les codes d’erreur 410 (page supprimée) de la même façon que les codes d’erreur 404 (page introuvable). L’affichage d’un code autre que 404 ou 410 lorsqu’une page n’existe pas (ou la redirection des internautes vers une autre page, telle que la page d’accueil, au lieu de l’affichage d’une erreur 404) peut poser problème. Il s’agit d’erreurs de type « soft 404 » qui peuvent troubler aussi bien les internautes que les moteurs de recherche.

J’ai beau réfléchir, je ne comprends pas la pertinence des choix de Google à ce sujet.

A quoi bon nous offrir un rapport d’erreur sur les erreurs 404, si en réalité ce rapport traite aussi, sans le dire, des 410 ?

Google justifie son choix idiot par l’argument « Il s’agit d’erreurs de type soft 404, blablabla ».

Nan mais LOL !!! Comme si ça suffisait à confondre les deux !!

A priori GSC est un outil pour les WEBMASTERS, qui sert à BIEN GERER un site web.

Or du point de vue du webmaster, une 404 et une 410, ça n’a rien à voir :

  • une 404, c’est précisément une erreur non-gérée, à corriger
  • alors qu’une 410, c’est précisément le contraire : une erreur qu’on a pris soin de gérer en mettant une instruction correcte dans le fichier .htaccess, donc une erreur qui n’est PLUS une erreur mais sa solution !

ça fait une sérieuse différence et ça justifierait que Google se donne la peine, soit de faire un rapport séparé sur les 410, soit d’exclure totalement les 410 du rapport sur les 404.

Pourquoi GSC compte comme 404 des redirections 301 ? Aucune idée

J’ai cherché aussi pourquoi, encore récemment, la GSC signale comme 404 des pages qui sont en réalité correctement redirigées avec des 301.

Je clique dessus depuis le rapport, et l’url marche.

Pas juste une url : mais des dizaines.

La doc de Gogole ne nous dit rien de rien à ce sujet.

Classer une 301 comme 404, c’est à peu près aussi logique et aussi légitime que d’élire un banquier à la présidence d’une République, ou que d’avoir une police qui vote à 75% pour un parti fasciste, ou que de faire enquêter cette police sur ses propres crimes.

Mais bref, avec Google comme avec la France, on aura tout vu.

Conclusion (et outils pour VRAIMENT gérer les 404)

Ce que je conclus de tout ça :

  • La doc mongoloïde nous sert de la soupe rance, ce n’est pas la première fois que je le remarque – entre les approximations, les demi-vérités, et les mensonges purs et simples, tout ça est indigne d’une entreprise qui emploie la fine fleur de l’ingénierie informatique mondiale
  • C’est gratuit et je suis ingrat, me direz-vous ? Non, c’est pas gratuit du tout, c’est une entreprise qui fait du fric par tous les moyens y compris en nous volant nos données sans avoir jamais demandé notre consentement – par exemple nos données GSC lui servent aussi à calibrer ses algorithmes qui lui servent à capter une énorme part du marché publicitaire mondial, en entretenant une situation de monopole infect, et illégal quoiqu’impuni !
  • La Google Search Console n’est d’aucune utilité pour les webmasters qui veulent gérer leurs 404

Reste la question de fond : quels outils utiliser pour VRAIMENT bien gérer les 404 ?

J’ai pensé à Screaming Frog, mais il ne va pas trop nous aider : il pourra juste détecter les liens internes menant à des 404, c’est déjà ça et c’est essentiel de les corriger, mais ça ne suffit pas car cela ne dit rien des 404 dues à des backlinks fautifs.

Pour ces backlinks, il y a l’outil « broken backlinks » de l’explorateur de sites d’AhrefsSemrush et d’autres ont des outils similaires.

Sur WordPress on pourra utiliser le plugin Rank Math SEO, qui a lui aussi un outil pour détecter les 404 – et c’est le plus complet de tous puisqu’il va journaliser absolument toutes les urls qui ont obtenu un tel code d’erreur – de plus il signalera vraiment TOUTES les 404, y compris celles des fichiers images et autres, et pas juste les urls des pages web, comme le fait Google sans le préciser ; et cerise sur le gâteau il nous permettra aussi de régler le problème si on veut en configurant une redirection 301.

Et enfin, on pourrait aussi, sur certains serveurs, comme sur O2Switch, avoir un journal des 404.

Bref : pour gérer les 404, utilisez tout sauf Google Search Console, outil conçu par des amateurs.

Qu'avez-vous pensé de cet article ?

Cliquez sur une étoile pour donner votre avis

Avis moyen 5 / 5. Nombre d'avis donnés 4

Soyez le premier à donner votre avis



6 réflexions sur “La Google Search Console raconte n’importe quoi sur les erreurs 404 (et 410)”

  1. Merci pour cet article. Pour ma part, Google Search Console m’affiche des centaines articles de blog fantômes 404 promotionnels. Mon hébergeur m’indique que je n’ai pourtant pas été piraté. site:arbredesovenance.fr affiche bien quelques pages en russe notamment. Je ne trouve aucune solution en ligne… :/

    1. Ludovic Bablon

      Bonjour. Là j’ai trop peu d’infos pour faire un diagnostic et chercher une solution, et puis ça prend du temps. Je pourrais essayer si vous m’achetez ce service : https://boutique-wp.fr/produit/depannage-wordpress/ – sans garantie de réussite. J’ai déjà eu un cas de ce genre, un site de psy publiait des articles en chinois, et le site avait été piraté, mais on a pu nettoyer.
      Si vous voulez essayer de régler ça tout seul vous pouvez installer WordFence ou d’autres plugins de sécurité et antivirus, ou tenter divers scans antimalware en ligne.
      Certains malwares sont simples à nettoyer, d’autres sont coriaces et réapparaissent.

  2. Vincent - StartUp

    Bonjour Ludovic,

    Merci pour cet article, pas facile de trouver des infos réelles sur le sujet. Je viens compléter tes informations, je pense que les 410 ne sont pas traiter pareil que les 404, je m’explique. Sur une boutique en ligne j’avais 985 url en 404 depuis des années. Le 26/08/2024 j’ai mis en place une 410 sur 950 urls (j’avais lu que les 410 était beaucoup plus éfficaces et en soit ça paraissait logique), et j’ai également ajouté un sitemap avec ces urls pour que google viennent voir ces 410 (pas forcément une bonne idée). Il ne s’est rien passé pendant plusieurs semaines.
    Le 08/10/2024 (+ 6 semaines) j’ai supprimé ce sitemap, il ne s’est rien passé… Mais le 08/01/2025, soit exactement 3 mois après la suppression du sitemap, j’ai un début de suppression massive de la search console. Aujourd’hui 21/01/2025 j’ai 712 erreurs sur les 985, soit plus de 270 urls qui ont été supprimées :).
    Vu la courbe, j’imagine qu’il va continuer à supprimer des urls en masse (j’espère 😉 ) . A suivre…

    1. Ludovic Bablon

      Je ne dis pas que les 404 sont traitées pareil que les 410.
      Je dis qu’elles sont confondues dans une même liste dans les rapports d’indexation Google Search Console, sous le nom fautif de « Introuvable (404) ».

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Besoin d'un hébergeur ?

Convivial, sympa, fiable, et pas cher,
O2Switch me semble être la meilleure offre actuellement sur le marché français.
C'est pourquoi j'y héberge tous mes sites. Hébergement O2Switch
Panier
//
Retour en haut