Comment repérer les mythes sur le référencement : 26 mythes courants sur le référencement, démystifiés

Comment repérer les mythes sur le référencement : 26 mythes courants sur le référencement, démystifiés

10 juillet 2024

Le référencement est une pratique complexe, vaste et parfois mystérieuse. De nombreux aspects du référencement peuvent prêter à confusion.

Tout le monde ne sera pas d’accord avec ce qu’implique le référencement – là où le référencement technique s’arrête et où le développement commence.

Ce qui n’aide pas non plus, c’est la grande quantité de désinformation qui circule. Il existe de nombreux « experts » en ligne et tous ne devraient pas porter ce titre autoproclamé. Comment savoir à qui faire confiance ?

Même les employés de Google peuvent parfois ajouter à la confusion. Ils ont du mal à définir leurs propres mises à jour et systèmes et proposent parfois des conseils qui entrent en conflit avec les déclarations précédentes.

Les dangers des mythes sur le référencement

Le problème est que nous ne savons tout simplement pas exactement comment fonctionnent les moteurs de recherche. Pour cette raison, une grande partie de ce que nous faisons en tant que professionnels du référencement n’est que des essais et des erreurs et des conjectures éclairées.

Lorsque vous découvrez le référencement, il peut être difficile de tester toutes les affirmations que vous entendez.

C’est à ce moment-là que les mythes du référencement commencent à s’imposer. Avant de vous en rendre compte, vous dites fièrement à votre supérieur hiérarchique que vous envisagez d'« optimiser AI Overview » la copie de votre site Web.

Les mythes sur le référencement peuvent souvent être dissipés avec une pause et un peu de réflexion.

Comment, exactement, Google pourrait-il mesurer cela ? Cela profiterait-il réellement à l’utilisateur final d’une manière ou d’une autre ?

Il existe un danger en matière de référencement de considérer les moteurs de recherche comme tout-puissants, et de ce fait, des mythes farfelus sur la façon dont ils comprennent et mesurent nos sites Web commencent à se développer.

Qu'est-ce qu'un mythe SEO ?

Avant de démystifier certains mythes courants sur le référencement, nous devons d’abord comprendre quelles formes ils prennent.

Une sagesse non testée

Les mythes en matière de référencement ont tendance à prendre la forme d’une sagesse transmise qui n’est pas testée.

En conséquence, quelque chose qui pourrait n’avoir aucun impact sur la génération de trafic organique qualifié vers un site est traité comme si c’était important.

Facteurs mineurs exagérément proportionnés

Les mythes sur le référencement peuvent également avoir un faible impact sur le classement organique ou la conversion, mais on leur accorde trop d'importance.

Il peut s'agir d'un exercice de « case à cocher » salué comme étant un facteur critique du succès du référencement, ou simplement d'une activité qui pourrait seulement faire avancer votre site si tout le reste avec vos concurrents était vraiment égal.

Conseils obsolètes

Des mythes peuvent surgir simplement parce que ce qui était autrefois efficace pour aider les sites à se classer et à bien se convertir ne le fait plus, mais est toujours conseillé. Il se peut que quelque chose fonctionnait très bien.

Au fil du temps, les algorithmes sont devenus plus intelligents. Le public est plus réticent à être commercialisé.

Simplement, ce qui était autrefois un bon conseil a aujourd’hui disparu.

Google est mal compris

Bien souvent, le début d’un mythe est Google lui-même.

Malheureusement, un conseil légèrement obscur ou tout simplement pas simple d'un représentant de Google est mal compris et s'enfuit.

Avant que nous nous en rendions compte, un nouveau service d’optimisation est vendu à la suite d’un commentaire désinvolte qu’un Googleur a fait en plaisantant.

Les mythes sur le référencement peuvent être basés sur des faits, ou peut-être s'agit-il, plus précisément, de légendes sur le référencement ?

Dans le cas des mythes nés sur Google, il semble que les faits aient été tellement déformés par l'interprétation de la déclaration par l'industrie du référencement qu'ils ne ressemblent plus à des informations utiles.

26 mythes courants sur le référencement

Alors, maintenant que nous savons ce qui cause et perpétue les mythes SEO, découvrons la vérité derrière certains des mythes les plus courants.

1. Les effets Google Sandbox et Honeymoon

Certains professionnels du référencement pensent que Google supprimera automatiquement les nouveaux sites Web des résultats de recherche organiques pendant un certain temps avant de pouvoir se classer plus librement.

D'autres suggèrent qu'il existe une sorte de période de lune de miel, pendant laquelle Google classera les nouveaux contenus en priorité pour tester ce que les utilisateurs en pensent.

Le contenu serait promu pour garantir que davantage d'utilisateurs le voient. Des signaux tels que le taux de clics et les rebonds vers les pages de résultats des moteurs de recherche (SERP) seraient ensuite utilisés pour mesurer si le contenu est bien reçu et mérite de rester bien classé.

Il existe cependant le Google Privacy Sandbox . Ceci est conçu pour aider à préserver la confidentialité des personnes en ligne. Il s’agit d’un bac à sable différent de celui qui supprime prétendument les nouveaux sites Web.

Interrogé spécifiquement sur l'effet lune de miel et le classement Sandbox, John Mueller a répondu :

« Dans le monde du référencement, cela est parfois appelé un peu comme un bac à sable où Google garde les choses en arrière pour empêcher l'apparition de nouvelles pages, ce qui n'est pas le cas.

Ou certaines personnes l'appellent comme la période de lune de miel où du nouveau contenu sort et Google l'aime vraiment et essaie de le promouvoir.

Et encore une fois, nous n’essayons pas explicitement de promouvoir un nouveau contenu ou de rétrograder un nouveau contenu.

C'est juste que nous ne le savons pas et que nous devons faire des hypothèses.

Et puis, parfois, ces hypothèses sont justes et rien ne change vraiment avec le temps.

Parfois, les choses se stabilisent un peu plus bas, parfois un peu plus haut.

Il n'y a donc pas de promotion ou de rétrogradation systématique de nouveaux contenus par Google, mais ce que vous remarquerez peut-être, c'est que les hypothèses de Google sont basées sur le reste des classements du site Web.

  • Verdict : Officiellement ? C'est un mythe.

2. Pénalité pour contenu en double

C'est un mythe que j'entends beaucoup. L’idée est que si vous avez du contenu sur votre site Web qui est dupliqué ailleurs sur le Web, Google vous pénalisera pour cela.

La clé pour comprendre ce qui se passe réellement ici est de connaître la différence entre la suppression algorithmique et l’action manuelle.

Une action manuelle, c'est-à-dire la situation pouvant entraîner la suppression de pages Web de l'index de Google, sera effectuée par un humain chez Google.

Le propriétaire du site Web sera informé via Google Search Console.

Une suppression algorithmique se produit lorsque votre page ne peut pas être bien classée car elle est interceptée par un filtre d'un algorithme.

Essentiellement, avoir une copie provenant d'une autre page Web peut signifier que vous ne pouvez pas surclasser cette autre page.

Les moteurs de recherche peuvent déterminer que l’hôte d’origine de la copie est plus pertinent que le vôtre par rapport à la requête de recherche.

Comme il n’y a aucun avantage à avoir les deux dans les résultats de recherche, le vôtre est supprimé. Ce n'est pas une pénalité. C'est l'algorithme qui fait son travail.

Il existe certaines actions manuelles liées au contenu, mais essentiellement, copier une ou deux pages du contenu de quelqu'un d'autre ne les déclenchera pas.

Cependant, cela risque de vous causer d'autres problèmes si vous n'avez aucun droit légal d'utiliser ce contenu. Cela peut également nuire à la valeur que votre site Web apporte à l'utilisateur.

Qu’en est-il du contenu dupliqué sur votre propre site ? Mueller précise que le contenu en double n'est pas un facteur de classement négatif. S'il existe plusieurs pages avec le même contenu, Google peut en choisir une comme page canonique et les autres ne seront pas classées.

  • Verdict : Mythe SEO.

3. La publicité PPC aide les classements

C'est un mythe courant. C'est aussi assez rapide à démystifier.

L’idée est que Google favorisera les sites Web qui dépensent de l’argent grâce à la publicité au paiement par clic. C'est tout simplement faux.

L'algorithme de Google pour classer les résultats de recherche organiques est complètement distinct de celui utilisé pour déterminer les emplacements d'annonces PPC.

Lancer une campagne publicitaire de recherche payante via Google tout en effectuant un référencement peut bénéficier à votre site pour d'autres raisons, mais cela ne bénéficiera pas directement à votre classement.

  • Verdict : Mythe SEO.

4. L'âge du domaine est un facteur de classement

Cette affirmation s’inscrit fermement dans le camp des « causalités et corrélations confuses ».

Parce qu’un site Web existe depuis longtemps et qu’il est bien classé, l’âge doit être un facteur de classement.

Google a lui-même démystifié ce mythe à plusieurs reprises.

En juillet 2019, Mueller a répondu à un message sur Twitter.com (récupéré via Wayback Machine) qui suggérait que l'âge du domaine était l'un des « 200 signaux de classement » en disant : « Non, l'âge du domaine n'aide à rien ».

JohnMu tweet : "Non, l'âge du domaine n'aide en rien." Image de Twitter.com récupérée via Wayback Machine, juin 2024

La vérité derrière ce mythe est qu’un site Web plus ancien a eu plus de temps pour bien faire les choses.

Par exemple, un site Web en ligne et actif depuis 10 ans peut très bien avoir acquis un volume élevé de backlinks pertinents vers ses pages clés.

Il est peu probable qu’un site Web qui fonctionne depuis moins de six mois puisse rivaliser avec celui-ci.

L’ancien site Web semble être mieux classé et la conclusion est que l’âge doit être le facteur déterminant.

  • Verdict : Mythe SEO

5. Le contenu par onglets affecte les classements

Cette idée a des racines qui remontent loin.

Le principe est que Google n’attribuera pas autant de valeur au contenu situé derrière un onglet ou un accordéon.

Par exemple, un texte qui n'est pas visible au premier chargement d'une page.

Google a de nouveau démystifié ce mythe en mars 2020 , mais c'est une idée controversée parmi de nombreux professionnels du référencement depuis des années.

En septembre 2018, Gary Illyes, analyste des tendances pour les webmasters chez Google, a répondu à un fil de discussion sur tweet sur l'utilisation des onglets pour afficher le contenu.

Sa réponse :

« AFAIK, rien n'a changé ici, Bill : nous indexons le contenu, et son poids est pleinement pris en compte pour le classement, mais il se peut qu'il ne soit pas mis en gras dans les extraits. C'est une autre question, plus technique, de savoir comment ce contenu est présenté par le site. L'indexation a des limites.

Si le contenu est visible dans le HTML, il n'y a aucune raison de supposer qu'il est dévalorisé simplement parce qu'il n'est pas visible pour l'utilisateur lors du premier chargement de la page. Ce n’est pas un exemple de masquage, et Google peut facilement récupérer le contenu.

Tant que rien d'autre n'empêche Google d'afficher le texte, il doit avoir la même pondération que la copie, qui ne se trouve pas dans les onglets.

Vous souhaitez plus de précisions à ce sujet ? Alors consultez cet article SEJ qui traite de ce sujet en détail.

  • Verdict : Mythe SEO.

6. Google utilise les données de Google Analytics dans les classements

Il s’agit d’une crainte commune parmi les propriétaires d’entreprises.

Ils étudient leurs rapports Google Analytics. Ils estiment que le taux de rebond moyen sur l’ensemble de leur site est trop élevé ou que le temps passé sur la page est trop faible.

Ils craignent donc que Google perçoive leur site comme étant de mauvaise qualité à cause de cela. Ils craignent de ne pas être bien classés à cause de cela.

Le mythe est que Google utilise les données de votre compte Google Analytics dans le cadre de son algorithme de classement.

C'est un mythe qui existe depuis longtemps.

Illyes a encore une fois démystifié cette idée simplement en disant : « Nous n'utilisons *rien* de Google Analytics [sic] dans « l'algo ».

Gary IIIoui tweet : Image de Twitter.com récupérée via Wayback Machine, juin 2024

Plus récemment, John Mueller a encore une fois dissipé cette idée , déclarant : « Cela n'arrivera pas » lorsqu'il a reçu la suggestion disant aux professionnels du référencement que GA4 est un facteur de classement qui améliorerait son adoption.

JohnMu : Image de Twitter.com récupérée de Wayback Machine, juin 2024

Si nous y réfléchissons logiquement, utiliser les données de Google Analytics comme facteur de classement serait très difficile à contrôler.

Par exemple, l'utilisation de filtres pourrait manipuler les données pour donner l'impression que le site fonctionnait d'une manière qui ne l'est pas réellement.

Au fait, qu’est-ce qu’une bonne performance ?

Un « temps passé sur la page » élevé peut être bon pour certains contenus longs.

Un faible « temps passé sur la page » pourrait être compréhensible pour un contenu plus court.

Est-ce que l’un a raison ou tort ?

Google devrait également comprendre la manière complexe dont chaque compte Google Analytics a été configuré.

Certains pourraient exclure tous les robots connus, d’autres non. Certains peuvent utiliser des dimensions et des regroupements de canaux personnalisés, tandis que d'autres n'ont rien configuré.

Utiliser ces données de manière fiable serait extrêmement compliqué à réaliser. Pensez aux centaines de milliers de sites Web qui utilisent d’autres programmes d’analyse.

Comment Google les traiterait-il ?

  • Verdict : Mythe SEO.

Ce mythe est un autre cas de « causalité et non de corrélation ».

Un taux de rebond élevé sur l’ensemble du site peut être le signe d’un problème de qualité, ou non. Un faible temps passé sur la page peut signifier que votre site n'est pas attrayant ou que votre contenu est rapidement digestible.

Ces mesures vous donnent des indices sur les raisons pour lesquelles vous n'êtes peut-être pas bien classé, elles n'en sont pas la cause.

7. Google se soucie de l'autorité de domaine

Le PageRank est un algorithme d'analyse de liens utilisé par Google pour mesurer l'importance d'une page Web.

Google avait l'habitude d'afficher le score PageRank d'une page avec un nombre allant jusqu'à 10 sur sa barre d'outils. Il a arrêté de mettre à jour le PageRank affiché dans les barres d'outils en 2013.

En 2016, Google a confirmé que la métrique de la barre d’outils PageRank n’allait plus être utilisée à l’avenir.

En l’absence de PageRank, de nombreux autres scores d’autorité tiers ont été développés.

Les plus connus sont :

  • Scores d'autorité de domaine et d'autorité de page de Moz.
  • Flux de confiance et flux de citations de Majestic.
  • Évaluation de domaine et évaluation d'URL d'Ahrefs.

Certains professionnels du référencement utilisent ces scores pour déterminer la « valeur » d’une page.

Cependant, ce calcul ne peut jamais refléter de manière entièrement précise la façon dont un moteur de recherche valorise une page.

Les professionnels du référencement font parfois référence à la puissance de classement d'un site Web, souvent en conjonction avec son profil de backlink, ce qui est également connu sous le nom d'autorité du domaine.

Vous pouvez voir où réside la confusion.

Les représentants de Google ont dissipé la notion de métrique d'autorité de domaine utilisée par eux.

John Mueller disait en 2022 :

« Nous n'utilisons pas l'autorité de domaine. Nous essayons généralement d'avoir nos métriques aussi granulaires que possible, parfois ce n'est pas si facile, auquel cas nous regardons les choses un peu plus large (par exemple, nous en avons parlé à propos de certaines des anciennes mises à jour de qualité).

Tweet par JohnMu Image de Twitter.com récupérée via Wayback Machine, juin 2024
  • Verdict : Mythe SEO.

8. Un contenu plus long est meilleur

Vous aurez certainement déjà entendu dire que le contenu plus long est mieux classé.

Plus de mots sur une page rendent automatiquement le vôtre plus digne d'être classé que celui de votre concurrent. C’est une « sagesse » qui est souvent partagée autour des forums SEO sans peu de preuves pour la justifier.

De nombreuses études ont été publiées au fil des ans qui établissent des faits sur les pages Web les mieux classées, telles que « en moyenne, les pages classées dans les 10 premières positions dans les SERP contiennent plus de 1 450 mots ».

Il serait assez facile pour quelqu'un de prendre ces informations isolément et de supposer que cela signifie que les pages ont besoin d'environ 1 500 mots pour être classées sur la première page. Ce n'est cependant pas ce que dit l'étude.

Malheureusement, il s’agit d’un exemple de corrélation, pas nécessairement de causalité.

Ce n’est pas parce que les pages les mieux classées dans une étude particulière contiennent plus de mots que les pages classées 11e et moins que le nombre de mots est un facteur de classement.

Mueller a une fois de plus dissipé ce mythe lors des heures de bureau de Google SEO en février 2021.

"De notre point de vue, le nombre de mots sur une page n'est pas un facteur de qualité, ni un facteur de classement."

Pour plus d'informations sur l'impact de la longueur du contenu sur le référencement, consultez l'article de Sam Hollingsworth.

  • Verdict : Mythe SEO.

9. Les mots-clés LSI vous aideront à vous classer

Que sont exactement les mots-clés LSI ? LSI signifie « indexation sémantique latente ».

Il s'agit d'une technique utilisée dans la recherche d'informations qui permet d'analyser les concepts du texte et d'identifier les relations entre eux.

Les mots ont des nuances qui dépendent de leur contexte. Le mot « bien » a une connotation différente lorsqu'il est associé à « gauche » que lorsqu'il est associé à « mauvais ».

Les humains peuvent évaluer rapidement les concepts d’un texte. Il est plus difficile pour les machines de le faire.

La capacité des machines à comprendre le contexte et les liens entre les entités est fondamentale pour leur compréhension des concepts.

LSI représente un énorme pas en avant dans la capacité d’une machine à comprendre du texte. Ce que ce n'est pas, ce sont des synonymes.

Malheureusement, le domaine du LSI a été dévolu par la communauté SEO dans la compréhension que l'utilisation de mots similaires ou liés thématiquement améliorera le classement des mots qui ne sont pas expressément mentionnés dans le texte.

Ce n'est tout simplement pas vrai. Google est allé bien au-delà de LSI dans sa compréhension du texte avec l'introduction de BERT, à titre d'exemple.

Pour en savoir plus sur ce qu'est le LSI et comment il affecte ou non les classements, jetez un œil à cet article.

  • Verdict : Mythe SEO.

10. Le référencement prend 3 mois

Cela nous aide à sortir des conversations délicates avec nos patrons ou nos clients. Cela laisse une grande marge de manœuvre si vous n’obtenez pas les résultats promis. « Le référencement prend au moins trois mois pour avoir un effet. »

Il est juste de dire que certains changements prendront du temps à être traités par les robots des moteurs de recherche.

Il reste alors bien entendu un certain temps pour voir si ces changements ont un effet positif ou négatif. Il faudra alors peut-être plus de temps pour affiner et peaufiner votre travail.

Cela ne veut pas dire que toute activité que vous effectuez au nom du référencement n’aura aucun effet pendant trois mois. Le jour 90 de votre travail ne sera pas celui où les changements de classement entreront en vigueur. Il y a bien plus que cela.

Si vous êtes sur un marché à très faible concurrence et que vous ciblez des termes de niche, vous constaterez peut-être des changements de classement dès que Google réexplorera votre page. Un mandat compétitif pourrait prendre beaucoup plus de temps pour voir des changements de rang.

Une étude de Semrush a suggéré que sur les 28 000 domaines analysés, seuls 19 % des domaines ont commencé à se classer dans les 10 premières positions en six mois et ont réussi à maintenir ce classement pour le reste des 13 mois de l'étude.

Cette étude indique que les pages les plus récentes ont du mal à obtenir un classement élevé.

Cependant, le référencement ne se limite pas à se classer dans le top 10 de Google.

Par exemple, une fiche de profil d'entreprise Google bien positionnée avec d'excellentes critiques peut rapporter des dividendes à une entreprise. Bing, Yandex et Baidu pourraient permettre à votre marque de conquérir plus facilement les SERP.

Une petite modification du titre d’une page pourrait entraîner une amélioration des taux de clics. Cela pourrait être le même jour si le moteur de recherche réexplorait rapidement la page.

Même si l’obtention d’un classement sur la première page de Google peut prendre beaucoup de temps, il est naïf de notre part de réduire le succès du référencement à cela.

Par conséquent, « le référencement prend 3 mois » n'est tout simplement pas exact.

  • Verdict : Mythe SEO.

11. Le taux de rebond est un facteur de classement

Le taux de rebond est le pourcentage de visites sur votre site Web qui n'entraînent aucune interaction au-delà de l'atterrissage sur la page. Il est généralement mesuré par le programme d'analyse d'un site Web, tel que Google Analytics.

Certains professionnels du référencement ont fait valoir que le taux de rebond est un facteur de classement car c'est une mesure de qualité.

Malheureusement, ce n'est pas une bonne mesure de la qualité.

Il existe de nombreuses raisons pour lesquelles un visiteur peut atterrir sur une page Web et repartir sans interagir davantage avec le site. Il se peut qu'ils aient lu toutes les informations dont ils avaient besoin sur cette page et quitté le site pour appeler l'entreprise et prendre rendez-vous.

Dans ce cas, le rebond du visiteur a généré une piste pour l’entreprise.

Bien qu’un visiteur quittant une page après avoir atterri dessus puisse être un indicateur d’un contenu de mauvaise qualité, ce n’est pas toujours le cas. Par conséquent, il ne serait pas suffisamment fiable pour qu’un moteur de recherche l’utilise comme mesure de qualité.

Le « Pogo-sticking », ou un visiteur cliquant sur un résultat de recherche puis revenant aux SERP, serait un indicateur plus fiable de la qualité de la page de destination.

Cela suggérerait que le contenu de la page ne correspondait pas à ce que recherchait l'utilisateur, à tel point qu'il est revenu aux résultats de recherche pour trouver une autre page ou effectuer une nouvelle recherche.

John Mueller a (encore) clarifié ce point lors des heures de bureau centrales des webmasters de Google en juin 2020. On lui a demandé si l'envoi des utilisateurs vers une page de connexion semblerait être un « rebond » pour Google et nuire à leur classement :

"Donc, je pense qu'il y a une idée fausse ici, selon laquelle nous examinons des choses comme le taux de rebond des analyses lorsqu'il s'agit de classer des sites Web, et ce n'est certainement pas le cas."

De retour sur les heures d'ouverture du bureau central de Google Webmaster en juillet 2018, il a également déclaré :

« Nous essayons de ne pas utiliser de tels signaux en matière de recherche. C'est donc quelque chose pour lequel il existe de nombreuses raisons pour lesquelles les utilisateurs peuvent faire des allers-retours, regarder différentes choses dans les résultats de recherche, ou rester brièvement sur une page et revenir en arrière. Je pense que c'est vraiment difficile à affiner et à dire : « eh bien, nous pourrions en faire un facteur de classement ».

Alors, pourquoi cela continue-t-il à revenir ? Eh bien, pour beaucoup de gens, c'est à cause de ce paragraphe dans Comment fonctionne la recherche de Google :

« Au-delà de l'examen des mots-clés, nos systèmes analysent également si le contenu est pertinent par rapport à une requête par d'autres moyens. Nous utilisons également des données d’interaction agrégées et anonymisées pour évaluer si les résultats de recherche sont pertinents par rapport aux requêtes.

Le problème est que Google ne précise pas ce que sont ces « données d'interaction agrégées et anonymisées ». Cela a donné lieu à de nombreuses spéculations et bien sûr à des disputes.

Mon avis? Jusqu'à ce que nous ayons des études plus concluantes ou que nous entendions autre chose de Google, nous devons continuer à tester pour déterminer quelles sont ces données d'interaction.

Pour l’instant, concernant la définition traditionnelle d’un rebond, je penche pour le « mythe ».

En soi, le taux de rebond (mesuré par Google Analytics) est un chiffre très bruyant et facilement manipulable. Quelque chose qui s'apparente à un rebond pourrait-il être un signal de classement ? Absolument, mais il faudra qu’il s’agisse d’un point de données fiable et reproductible qui mesure véritablement la qualité.

En attendant, si vos pages ne satisfont pas l’intention de l’utilisateur, c’est certainement un point sur lequel vous devez travailler – pas simplement à cause du taux de rebond.

Fondamentalement, vos pages doivent encourager les utilisateurs à interagir, ou si ce n'est pas ce type de page, au moins laisser votre site avec une association positive avec la marque.

  • Verdict : Mythe SEO.

12. Tout est question de backlinks

Les backlinks sont importants – et cela sans trop de controverses au sein de la communauté SEO. Cependant, l’importance exacte de ce phénomène reste encore débattue.

Certains professionnels du référencement vous diront que les backlinks sont l’une des nombreuses tactiques qui influenceront les classements, mais ce ne sont pas les plus importantes. D’autres vous diront que c’est le seul qui change réellement la donne.

Ce que nous savons, c'est que l'efficacité des liens a changé avec le temps. À l’époque sauvage d’avant Jagger, la création de liens consistait à ajouter un lien vers votre site Web partout où vous le pouviez.

Les commentaires du forum contenaient des articles et les répertoires non pertinents étaient tous de bonnes sources de liens.

Il était facile de créer des liens efficaces. Ce n'est pas si facile maintenant.

Google a continué à apporter des modifications à ses algorithmes qui récompensent les liens de meilleure qualité et plus pertinents et ignorent ou pénalisent les liens « spam ».

Cependant, le pouvoir des liens sur les classements reste important.

Certains secteurs sont si immatures en matière de référencement qu'un site peut être bien classé sans investir dans la création de liens, uniquement grâce à la force de leur contenu et à leur efficacité technique.

Ce n'est pas le cas de la plupart des industries.

Des backlinks pertinents contribueront bien sûr au classement, mais ils doivent aller de pair avec d’autres optimisations. Votre site Web doit toujours avoir un contenu pertinent et il doit être explorable.

Si vous voulez que votre trafic fasse réellement quelque chose lorsqu'il arrive sur votre site Web, il ne s'agit certainement pas uniquement de backlinks.

Le classement n’est qu’un élément de la conversion des visiteurs vers votre site. Le contenu et la convivialité du site sont extrêmement importants pour l’engagement des utilisateurs.

Suite aux nombreuses mises à jour du contenu utile et à une meilleure compréhension de ce que Google considère comme EEAT , nous savons que la qualité du contenu est extrêmement importante.

Les backlinks peuvent certainement aider à indiquer qu’une page serait utile à un lecteur, mais de nombreux autres facteurs le suggèrent également.

  • Verdict : Mythe SEO.

13. Les mots clés dans les URL sont très importants

Remplissez vos URL de mots-clés. Ça va aider.

Malheureusement, ce n’est pas aussi puissant que cela.

John Mueller a déclaré à plusieurs reprises que les mots-clés dans une URL constituent un signal de classement très mineur et léger.

Lors d’un Google SEO Office Hours en 2021, il a encore affirmé :

« Nous utilisons les mots dans une URL comme un facteur très, très léger. Et d'après mes souvenirs, c'est avant tout quelque chose dont on tiendrait compte lorsqu'on n'a pas encore eu accès au contenu.

Ainsi, si c'est la première fois que nous voyons cette URL et que nous ne savons pas comment classer son contenu, nous pourrions alors utiliser les mots contenus dans l'URL pour nous aider à mieux nous classer.

Mais dès que nous avons exploré et indexé le contenu, nous avons alors beaucoup plus d'informations.

Si vous cherchez à réécrire vos URL pour inclure plus de mots-clés, vous risquez de faire plus de dégâts que de bien.

Le processus de redirection massive des URL doit être effectué lorsque cela est nécessaire, car il existe toujours un risque lors de la restructuration d'un site.

Dans le but d'ajouter des mots-clés à une URL ? Ça n'en vaut pas la peine.

  • Verdict : Mythe SEO.

14. Les migrations de sites Web concernent uniquement les redirections

Les professionnels du référencement entendent cela trop souvent. Si vous migrez un site Web, tout ce que vous avez à faire est de penser à rediriger toutes les URL qui changent.

Si seulement celui-ci était vrai.

En réalité, la migration de sites Web est l’une des procédures les plus lourdes et les plus compliquées en matière de référencement.

Un site Web modifiant sa mise en page, son système de gestion de contenu (CMS), son domaine et/ou son contenu peut tous être considéré comme une migration de site Web.

Dans chacun de ces exemples, plusieurs aspects pourraient affecter la façon dont les moteurs de recherche perçoivent la qualité et la pertinence des pages par rapport aux mots-clés ciblés.

En conséquence, de nombreuses vérifications et configurations doivent être effectuées si le site veut maintenir son classement et son trafic organique – en s'assurant que le suivi n'a pas été perdu, en conservant le même ciblage de contenu et en s'assurant que les robots des moteurs de recherche peuvent toujours accéder. les bonnes pages.

Tout cela doit être pris en compte lorsqu’un site Web évolue de manière significative.

La redirection des URL qui changent est une partie très importante de la migration d’un site Web. Ce n’est en aucun cas la seule chose dont il faut s’inquiéter.

  • Verdict : Mythe SEO.

15. Les sites Web bien connus surpasseront toujours les sites Web inconnus

Il va de soi qu’une grande marque disposera de ressources que les petites marques n’ont pas. En conséquence, davantage peut être investi dans le référencement.

Des éléments de contenu plus intéressants peuvent être créés, conduisant à un volume plus élevé de backlinks acquis. Le nom de la marque à lui seul peut donner plus de crédit aux tentatives de sensibilisation.

La vraie question est la suivante : Google stimule-t-il les grandes marques de manière algorithmique ou manuelle en raison de leur renommée ?

Celui-ci est un peu controversé.

Certains disent que Google privilégie les grandes marques. Google dit le contraire.

En 2009, Google a publié une mise à jour de son algorithme nommée « Vince ». Cette mise à jour a eu un impact énorme sur la façon dont les marques étaient traitées dans les SERP.

Les marques bien connues hors ligne ont vu leur classement augmenter pour les mots clés larges et compétitifs. Il va de soi que la notoriété de la marque peut faciliter la découverte via la recherche.

Il n’est pas forcément temps pour les petites marques de jeter l’éponge.

La mise à jour de Vince s'inscrit tout à fait dans la lignée des autres initiatives de Google visant à valoriser l'autorité et la qualité.

Les grandes marques font souvent plus autorité sur les mots-clés généraux que leurs concurrents plus petits.

Toutefois, les petites marques peuvent encore gagner.

Le ciblage par mots clés à longue traîne, les gammes de produits de niche et la présence locale peuvent tous rendre les petites marques plus pertinentes pour un résultat de recherche que les marques établies.

Oui, les chances sont en faveur des grandes marques, mais il n’est pas impossible de les surpasser.

  • Verdict : Pas entièrement vérité ou mythe.

16. Votre page doit inclure « à proximité » pour être bien classée pour le référencement local

Il est compréhensible que ce mythe soit toujours répandu.

On se concentre encore beaucoup sur les volumes de recherche de mots clés dans le secteur du référencement, parfois au détriment de la prise en compte de l'intention de l'utilisateur et de la façon dont les moteurs de recherche la comprennent.

Lorsqu'un chercheur recherche quelque chose avec une intention locale, c'est-à-dire un lieu ou un service pertinent à un emplacement physique, les moteurs de recherche en tiendront compte lors du renvoi des résultats.

Avec Google, vous verrez probablement les résultats de Google Maps ainsi que les listes organiques standard.

Les résultats de Maps sont clairement centrés sur l’emplacement recherché. Cependant, il en va de même pour les listes organiques standard lorsque la requête de recherche indique une intention locale.

Alors, pourquoi les recherches « à proximité » en déroutent-elles certains ?

Un exercice typique de recherche de mots clés pourrait donner quelque chose comme ce qui suit :

  • « pizzeria manhattan » – 110 recherches par mois.
  • « pizzerias à Manhattan » – 110 recherches par mois.
  • «meilleure pizzeria de Manhattan» – 90 recherches par mois.
  • «meilleures pizzerias de Manhattan» – 90 recherches par mois.
  • « meilleure pizzeria de Manhattan » – 90 recherches par mois.
  • « pizzerias à proximité » – 90 500 recherches par mois.

Avec un volume de recherche comme celui-là, on pourrait penser que [pizzerias à proximité] seraient ceux pour lesquels il faut se classer, n'est-ce pas ?

Il est probable, cependant, que les personnes recherchant [pizzeria manhattan] se trouvent dans la région de Manhattan ou envisagent de s'y rendre pour manger une pizza.

[pizzeria près de chez moi] compte 90 500 recherches à travers les États-Unis. Il est probable que la grande majorité de ces chercheurs ne recherchent pas les pizzas de Manhattan.

Google le sait et, par conséquent, fournira des résultats de pizzeria pertinents à l'emplacement du chercheur.

Par conséquent, l’élément « à proximité » de la recherche concerne moins le mot-clé que l’intention derrière le mot-clé. Google considérera simplement qu'il s'agit de l'emplacement dans lequel se trouve le chercheur.

Alors, devez-vous inclure « à proximité » dans votre contenu pour vous classer dans ces recherches [à proximité] ?

Non, vous devez être pertinent par rapport à l'emplacement dans lequel se trouve le chercheur.

  • Verdict : Mythe SEO.

17. Un meilleur contenu équivaut à de meilleurs classements

Il est répandu dans les forums SEO et les fils de discussion X (anciennement Twitter). La plainte courante est la suivante : « Mon concurrent est au-dessus de moi, mais j'ai un contenu incroyable et le leur est terrible. »

C’est un cri d’indignation. Après tout, les moteurs de recherche ne devraient-ils pas récompenser les sites pour leur contenu « incroyable » ?

C’est à la fois un mythe et parfois une illusion.

La qualité du contenu est une considération subjective. S'il s'agit de votre propre contenu, il est encore plus difficile d'être objectif.

Peut-être qu'aux yeux de Google, votre contenu n'est pas meilleur que celui de vos concurrents pour les termes de recherche pour lesquels vous souhaitez vous classer.

Peut-être que vous ne répondez pas aussi bien qu’eux à l’intention du chercheur. Peut-être avez-vous « sur-optimisé » votre contenu et réduit sa qualité.

Dans certains cas, un meilleur contenu équivaudra à un meilleur classement. Dans d'autres, les performances techniques du site ou son manque de pertinence locale peuvent entraîner un classement inférieur.

Le contenu est un facteur dans les algorithmes de classement.

  • Verdict : Mythe SEO.

18. Vous devez bloguer tous les jours

Il s’agit d’un mythe frustrant car il semble s’être répandu en dehors du secteur du référencement.

Google aime le contenu fréquent. Vous devez ajouter du nouveau contenu ou modifier quotidiennement le contenu existant pour plus de « fraîcheur ».

D’où est venue cette idée ?

Google a mis à jour son algorithme en 2011 qui récompense les résultats les plus récents dans les SERP.

En effet, pour certaines requêtes, plus les résultats sont récents, meilleure est la probabilité d'exactitude.

Par exemple, si vous recherchez [bébé royal] au Royaume-Uni en 2013, vous recevrez des articles de presse sur Prince George. Recherchez-le à nouveau en 2015 et vous verrez des pages sur la princesse Charlotte.

En 2018, vous verriez des rapports sur le prince Louis en haut des SERP de Google, et en 2019, ce serait le bébé Archie.

Si vous deviez rechercher [royal baby] en 2021, peu de temps après la naissance de Lilibet, alors lire des articles de presse sur Prince George ne serait probablement d'aucune utilité.

Dans ce cas, Google discerne l'intention de recherche de l'utilisateur et décide qu'il serait préférable d'afficher des articles liés au nouveau bébé royal britannique plutôt que d'afficher un article qui est sans doute plus digne de mention en raison de son autorité, etc.

Ce que cette mise à jour de l'algorithme ne signifie pas, c'est que le contenu le plus récent surpassera toujours le contenu plus ancien. Google décide si la « requête mérite de la fraîcheur » ou non.

Si tel est le cas, l’âge du contenu devient alors un facteur de classement plus important.

Cela signifie que si vous créez du contenu uniquement pour vous assurer qu'il est plus récent que le contenu de vos concurrents, vous n'en bénéficierez pas nécessairement.

Si la requête pour laquelle vous cherchez à classer ne mérite pas d'être fraîche, c'est-à-dire [qui est le troisième enfant du prince William ?], un fait qui ne changera pas, alors l'âge du contenu ne jouera pas un rôle significatif dans le classement.

Si vous écrivez du contenu tous les jours en pensant que cela permet de garder votre site Web à jour et, par conséquent, plus digne d'être classé, vous perdez probablement du temps.

Il serait préférable d'écrire moins fréquemment des éléments de contenu bien réfléchis, recherchés et utiles et de réserver vos ressources pour les rendre hautement fiables et partageables.

  • Verdict : Mythe SEO.

19. Vous pouvez optimiser la copie une fois, puis c'est fait

L'expression « copie optimisée pour le référencement » est courante dans le monde des agences.

Il est utilisé pour expliquer le processus de création d'une copie qui sera pertinente pour les requêtes fréquemment recherchées.

Le problème, c'est que cela suggère qu'une fois que vous avez rédigé cette copie – et que vous vous êtes assuré qu'elle répond de manière adéquate aux requêtes des chercheurs – vous pouvez passer à autre chose.

Malheureusement, avec le temps, la façon dont les chercheurs recherchent du contenu peut changer. Les mots-clés qu’ils utilisent, le type de contenu qu’ils souhaitent peuvent changer.

Les moteurs de recherche peuvent également modifier ce qu’ils considèrent comme la réponse la plus pertinente à la requête. Peut-être que l’intention derrière le mot-clé est perçue différemment.

La présentation des SERP peut changer, ce qui signifie que les vidéos sont affichées en haut des résultats de recherche alors qu'auparavant il s'agissait uniquement de résultats de page Web.

Si vous consultez une page une seule fois et que vous ne continuez pas à la mettre à jour et à la faire évoluer en fonction des besoins des utilisateurs, vous risquez de prendre du retard.

  • Verdict : Mythe SEO.

20. Google respecte l'URL canonique déclarée comme version préférée pour les résultats de recherche

Cela peut être très frustrant. Vous disposez de plusieurs pages qui sont presque des doublons les unes des autres. Vous savez quelle est votre page principale, celle que vous souhaitez classer, la « canonique ». Vous le dites à Google via la balise « rel=canonical » spécialement sélectionnée.

Vous l'avez choisi. Vous l'avez identifié dans le HTML.

Google ignore vos souhaits et une autre des pages en double se classe à sa place.

L'idée que Google prenne la page que vous avez choisie et la traite comme la page canonique d'un ensemble de doublons n'est pas difficile.

Il est logique que le propriétaire du site Web sache le mieux quelle page doit être celle qui se classe au-dessus de ses cousines. Cependant, Google sera parfois en désaccord.

Il peut arriver qu'une autre page de l'ensemble soit choisie par Google comme meilleure candidate à afficher dans les résultats de recherche.

Cela peut être dû au fait que la page reçoit plus de backlinks de sites externes que la page que vous avez choisie. Il se peut qu'il soit inclus dans le plan du site ou qu'il soit lié à votre navigation principale.

Essentiellement, la balise canonique est un signal – l’un des nombreux signaux qui seront pris en compte lorsque Google choisira quelle page parmi un ensemble de doublons doit être classée.

Si vous avez des signaux contradictoires sur votre site ou en externe, alors la page canonique que vous avez choisie peut être négligée au profit d'une autre page.

Vous voulez savoir si Google a sélectionné une autre URL comme canonique malgré votre balise canonique ? Dans Google Search Console, dans le rapport de couverture de l'index, vous pourriez voir ceci : « En double, Google a choisi un canonique différent de celui de l'utilisateur. »

Les documents d'assistance de Google expliquent utilement ce que cela signifie :

« Cette page est marquée comme canonique pour un ensemble de pages, mais Google pense qu'une autre URL donne un meilleur canonique. Google a indexé la page que nous considérons comme canonique plutôt que celle-ci.

  • Verdict : mythe SEO.

21. Google a 3 principaux facteurs de classement

Ce sont des liens, du contenu et Rank Brain, n'est-ce pas ?

Cette idée selon laquelle ce sont les trois facteurs les plus importants semble provenir d'une séance de questions-réponses sur WebPromo en 2016 avec Andrei Lipattsev, stratège principal en qualité de recherche chez Google à l'époque (récupéré via Wayback Machine ; retrouvez cette discussion vers 30 minutes environ) .

Interrogé sur les « deux autres » facteurs les plus importants, la personne qui a posé la question a supposé que Rank Brain en était un, Lipattsev a déclaré que les liens pointant vers un site et le contenu étaient les deux autres. Il précise en disant :

« La troisième place est une question très controversée. Je pense… C'est drôle. Prenez cela avec un grain de sel. […] Et donc je suppose que si vous faites cela, alors vous verrez des éléments de RankBrain impliqués ici, réécrivant cette requête, l'appliquant comme ceci ici… Et donc vous diriez : « Je vois ces deux fois plus souvent que l'autre chose, et deux fois plus souvent que l'autre chose ». C'est donc quelque part au numéro trois.

Ce n’est pas comme si avoir trois liens était « X » important, et avoir cinq mots-clés était « Y » important, et RankBrain était un facteur « Z » qui était aussi important d’une manière ou d’une autre, et vous multipliiez tout cela… Ce n’est pas comme ça que cela fonctionne.

Quel que soit le début, le concept prévaut. Un bon profil de backlink, une bonne copie et des signaux de type « Rank Brain » sont ce qui compte le plus dans les classements, selon de nombreux professionnels du référencement.

Ce que nous devons prendre en considération lors de l'examen de cette idée, c'est la réponse de John Mueller à une question posée dans un hangout en anglais de 2017 sur les heures de bureau de Google Webmaster Central .

On demande à Mueller s'il existe une approche unique pour les trois premiers signaux de classement dans Google. Sa réponse est un « non » clair.

Il fait suivre cette déclaration par une discussion sur la rapidité des recherches et sur la manière dont cela pourrait nécessiter l'affichage de résultats de recherche différents.

Il mentionne également que selon le contexte de la recherche, différents résultats peuvent devoir être affichés, par exemple marque ou shopping.

Il continue d'expliquer qu'il ne pense pas qu'il existe un ensemble de facteurs de classement pouvant être déclarés parmi les trois premiers et s'appliquant à tous les résultats de recherche à tout moment.

Dans la documentation «  Comment fonctionne la recherche », il est clairement indiqué :

« Pour vous fournir les informations les plus utiles, les algorithmes de recherche examinent de nombreux facteurs et signaux, notamment les mots de votre requête, la pertinence et la convivialité des pages, l'expertise des sources, ainsi que votre emplacement et vos paramètres.

Le poids appliqué à chaque facteur varie en fonction de la nature de votre requête. Par exemple, la fraîcheur du contenu joue un rôle plus important dans la réponse aux requêtes sur des sujets d’actualité que sur les définitions des dictionnaires. »

  • Verdict : Pas tout à fait vrai ou mythe.

22. Utilisez le fichier de désaveu pour maintenir de manière proactive le profil de lien d'un site

Désavouer ou ne pas désavouer – cette question est souvent revenue au fil des années depuis Penguin 4.0.

Certains professionnels du référencement sont favorables à l'ajout de tout lien pouvant être considéré comme du spam au fichier de désaveu de leur site. D’autres sont plus convaincus que Google les ignorera de toute façon et s’épargnera des ennuis.

C'est certainement plus nuancé que ça.

Lors d'un Hangout pour les webmasters aux heures de bureau centrales de 2019, Mueller a été interrogé sur l'outil de désaveu et si nous devrions être sûrs que Google ignore les liens de spam moyens (mais pas très).

Sa réponse indique qu'il existe deux cas dans lesquels vous souhaiterez peut-être utiliser un fichier de désaveu :

  • Dans les cas où une action manuelle a été effectuée.
  • Et on pourrait penser que si un membre de l’équipe anti-spam le voyait, il émettrait une action manuelle.

Vous ne souhaiterez peut-être pas ajouter tous les liens spammés à votre fichier de désaveu. En pratique, cela peut prendre beaucoup de temps si vous disposez d’un site très visible qui accumule des milliers de ces liens par mois.

Certains liens seront évidemment du spam, et leur acquisition n'est pas le résultat d'une activité de votre part.

Cependant, lorsqu'ils sont le résultat de stratégies de création de liens peu efficaces (achat de liens, échanges de liens, etc.), vous souhaiterez peut-être les désavouer de manière proactive.

Lisez le résumé complet de Roger Montti de l'échange de 2019 avec John Mueller pour avoir une meilleure idée du contexte autour de cette discussion.

  • Verdict : Ce n'est pas un mythe, mais ne perdez pas votre temps inutilement.

23. Google valorise les backlinks de tous les domaines de haute autorité

Plus l'autorité du site Web est élevée, plus son impact sur la capacité de votre site à être classé est important. Vous entendrez cela dans de nombreux pitchs SEO, réunions clients et sessions de formation.

Cependant, ce n’est pas toute l’histoire.

D'une part, on peut se demander si Google a un concept d'autorité de domaine (voir « Google se soucie de l'autorité de domaine » ci-dessus).

Et plus important encore, il faut comprendre que de nombreux éléments entrent en compte dans les calculs de Google pour déterminer si un lien aura un impact sur la capacité d'un site à être bien classé ou non.

Pertinence, indices contextuels, attributs de lien sans suivi. Aucun de ces éléments ne doit être ignoré lors de la recherche d’un lien provenant d’un site Web à « autorité de domaine » élevée.

John Mueller a également jeté un chat parmi les pigeons lors d'un podcast en direct Search Off the Record enregistré à BrightonSEO en 2022 lorsqu'il a déclaré :

« Et dans une certaine mesure, les liens seront toujours quelque chose qui nous intéressera car nous devons trouver des pages d'une manière ou d'une autre. C'est un peu comme comment trouver une page sur le Web sans y faire référence ? » Mais je suppose qu’avec le temps, ce ne sera plus un facteur aussi important qu’il l’est parfois aujourd’hui. Je pense que c'est déjà quelque chose qui a beaucoup changé.

  • Verdict : Mythe.

24. Vous ne pouvez pas classer une page sans une vitesse de chargement ultra-rapide

Il existe de nombreuses raisons pour rendre vos pages rapides : la convivialité, la facilité d'exploration et la conversion. Sans doute, c’est important pour la santé et les performances de votre site Web, et cela devrait suffire à en faire une priorité.

Cependant, est-ce quelque chose qui est absolument essentiel au classement de votre site Web ?

Comme le suggère cet article de Google Search Central de 2010, c'était certainement quelque chose qui était pris en compte dans les algorithmes de classement. Lors de sa publication, Google a déclaré :

« Même si la vitesse du site est un nouveau signal, elle n'a pas autant de poids que la pertinence d'une page. Actuellement, moins de 1 % des requêtes de recherche sont affectées par le signal de vitesse du site dans notre mise en œuvre et le signal de vitesse du site ne s'applique qu'aux visiteurs effectuant des recherches en anglais sur Google.com à ce stade.

Est-ce que cela ne concerne encore qu’un si faible pourcentage de visiteurs ?

En 2021, le système Google Page Experience, qui intègre les Core Web Vitals pour lesquels la vitesse est importante, s'est déployé sur mobile. Elle a été suivie en 2022 par un déploiement du système sur ordinateur de bureau.

Cela a suscité une vague d'activité de la part des professionnels du référencement, essayant de se préparer pour la mise à jour.

Beaucoup perçoivent que c'est quelque chose qui pourrait faire ou défaire le potentiel de classement de leur site. Cependant, au fil du temps, les représentants de Google ont minimisé l’effet de classement de Core Web Vitals.

Plus récemment, en mai 2023, Google a introduit l'Interaction to Next Paint (INP) dans les Core Web Vitals pour remplacer le First Input Delay (FID).

Google affirme que INP aide à résoudre certaines des limitations rencontrées avec FID . Ce changement dans la façon dont la réactivité d'une page est mesurée montre que Google se soucie toujours de mesurer avec précision l'expérience utilisateur.

D'après les déclarations précédentes de Google et l'accent récemment mis sur Core Web Vitals, nous pouvons voir que la vitesse de chargement continue d'être un facteur de classement important.

Cependant, cela n’entraînera pas nécessairement une augmentation ou une diminution spectaculaire du classement de votre site Web.

Les représentants de Google, Gary Illyes, Martin Splitt et John Mueller, ont émis une hypothèse en 2021 lors d'un podcast « Search off the Record » sur la pondération de la vitesse comme facteur de classement.

Leur discussion a fait ressortir la réflexion autour de la vitesse de chargement des pages en tant que mesure de classement et sur la manière dont elle devrait être considérée comme un signal assez léger.

Ils ont ensuite expliqué qu'il s'agissait plutôt d'un facteur de départage, car vous pouvez créer une page vide à la vitesse de l'éclair, mais cela ne sera pas d'une grande utilité pour un chercheur.

John Mueller a renforcé cela en 2022 pendant les heures de bureau de Google SEO lorsqu'il a déclaré :

« Core Web Vitals est définitivement un facteur de classement. Nous l'avons maintenant pour mobile et ordinateur de bureau. Il est basé sur ce que les utilisateurs voient réellement et non sur une sorte de test théorique de vos pages […] Ce que vous n'avez pas tendance à voir, ce sont de gros changements de classement dans l'ensemble pour cela.

Mais vous verrez plutôt des changements pour les requêtes pour lesquelles nous avons un contenu similaire dans les résultats de recherche. Ainsi, si quelqu'un recherche le nom de votre entreprise, nous n'afficherons pas de blog au hasard, simplement parce qu'il est un peu plus rapide, au lieu de votre page d'accueil.

Nous afficherions votre page d'accueil, même si elle est très lente. D'un autre côté, si quelqu'un recherche, je ne sais pas, des chaussures de course, et qu'il y a beaucoup de gens qui écrivent sur les chaussures de course, alors c'est là que l'aspect vitesse joue un peu plus un rôle.

Dans cette optique, pouvons-nous considérer la vitesse des pages comme un facteur de classement majeur ?

Mon avis est non, la vitesse des pages est certainement l'un des moyens par lesquels Google décide quelles pages doivent être classées au-dessus des autres, mais ce n'est pas un facteur majeur.

  • Verdict : Mythe.

25. Le budget d'exploration n'est pas un problème

Le budget d'exploration – l'idée selon laquelle chaque fois que Googlebot visite votre site Web, il visitera un nombre limité de ressources – n'est pas une question controversée. Cependant, quelle attention faut-il y accorder.

Par exemple, de nombreux professionnels du référencement considéreront l’optimisation du budget d’exploration comme un élément central de toute feuille de route technique de référencement. D'autres ne l'envisageront que si un site atteint une certaine taille ou complexité.

Google est une entreprise aux ressources limitées. Il ne peut pas explorer chaque page de chaque site chaque fois que ses robots les visitent. Par conséquent, certains des sites visités peuvent ne pas voir toutes leurs pages explorées à chaque fois.

Google a utilement créé un guide destiné aux propriétaires de sites Web volumineux et fréquemment mis à jour pour les aider à comprendre comment permettre l'exploration de leurs sites.

Dans le guide , Google déclare :

« Si votre site ne comporte pas un grand nombre de pages qui changent rapidement, ou si vos pages semblent être explorées le jour même de leur publication, vous n'avez pas besoin de lire ce guide ; il suffit de garder votre plan de site à jour et de vérifier régulièrement la couverture de votre index.

Il semblerait donc que Google soit favorable à ce que certains sites prêtent attention à ses conseils sur la gestion du budget de crawl, mais ne le considère pas nécessaire pour tous.

Pour certains sites, en particulier ceux qui ont une configuration technique complexe et plusieurs centaines de milliers de pages, la gestion du budget d'exploration est importante. Pour ceux qui disposent d’une poignée de pages faciles à explorer, ce n’est pas le cas.

  • Verdict : mythe SEO.

26. Il existe une bonne façon de faire du référencement

C’est probablement un mythe dans de nombreux secteurs, mais il semble répandu dans le référencement. Il existe de nombreux contrôles dans les médias sociaux, les forums et les chats SEO.

Malheureusement, ce n'est pas si simple.

Nous connaissons quelques principes fondamentaux du référencement.

Habituellement, quelque chose est déclaré par un représentant d'un moteur de recherche qui a été disséqué, testé et finalement déclaré vrai.

Le reste est le résultat d’essais et d’erreurs personnels et collectifs, de tests et d’expériences.

Les processus sont extrêmement précieux au sein des fonctions commerciales SEO, mais ils doivent évoluer et être appliqués de manière appropriée.

Différents sites Web au sein de différents secteurs réagiront aux changements d’une manière que d’autres ne le feraient pas. Modifier un méta-titre afin qu'il comporte moins de 60 caractères peut améliorer le taux de clics pour une page et non pour une autre.

En fin de compte, nous devons prendre à la légère tous les conseils SEO qui nous sont donnés avant de décider s’ils conviennent au site Web sur lequel vous travaillez.

  • Verdict : Mythe SEO.

Quand quelque chose peut-il ressembler à un mythe

Parfois, une technique de référencement peut être considérée comme un mythe par d’autres simplement parce qu’ils n’ont pas réussi à mener cette activité pour leur propre site.

Il est important de se rappeler que chaque site Web a son propre secteur d’activité, son propre ensemble de concurrents, la technologie qui le sous-tend et d’autres facteurs qui le rendent unique.

Il est naïf d’appliquer globalement des techniques à chaque site Web et de s’attendre à ce qu’ils obtiennent le même résultat.

Quelqu’un n’a peut-être pas réussi avec une technique lorsqu’il l’a essayée dans son secteur hautement compétitif.

Cela ne veut pas dire que cela n’aidera pas quelqu’un dans un secteur moins compétitif à réussir.

Causalité et corrélation étant confuses

Parfois, les mythes SEO surgissent en raison d’un lien inapproprié entre une activité réalisée et une augmentation des performances de recherche organique.

Si un référenceur a vu un avantage à quelque chose qu’il a fait, il est naturel qu’il conseille aux autres d’essayer de même.

Malheureusement, nous ne sommes pas toujours doués pour séparer la causalité et la corrélation.

Ce n’est pas parce que les classements ou les taux de clics ont augmenté à peu près au même moment où vous avez mis en œuvre une nouvelle tactique que cela a provoqué l’augmentation. Il pourrait y avoir d’autres facteurs en jeu.

Bientôt, un mythe SEO naîtra d’un SEO trop enthousiaste qui veut partager ce qu’il croit à tort être un ticket en or.

Éviter les mythes sur le référencement

Cela peut vous éviter des maux de tête, une perte de revenus et beaucoup de temps si vous apprenez à repérer les mythes sur le référencement et à agir en conséquence.

Test

La clé pour ne pas tomber dans le piège des mythes SEO est de vous assurer que vous pouvez tester les conseils autant que possible.

Si on vous a conseillé de structurer les titres de vos pages d'une certaine manière, cela aidera vos pages à mieux se classer pour les mots-clés choisis, alors essayez-le d'abord avec une ou deux pages.

Cela peut vous aider à mesurer si une modification sur plusieurs pages en vaudra la peine avant de vous y engager.

Google se contente-t-il de tester ?

Parfois, il y aura un grand tollé dans la communauté SEO en raison de changements dans la façon dont Google affiche ou classe les résultats de recherche.

Ces modifications sont souvent testées dans la nature avant d’être déployées dans davantage de résultats de recherche.

Une fois qu’un changement important a été repéré par un ou deux professionnels du référencement, les conseils sur la façon de l’optimiser commencent à se répandre.

Vous vous souvenez des favicons dans les résultats de recherche sur ordinateur ? Le bouleversement qui a causé l’industrie du référencement (et les utilisateurs de Google en général) a été vaste.

Soudain, des articles ont surgi sur l'importance des favicons pour attirer les utilisateurs vers vos résultats de recherche. Nous avions à peine le temps d’étudier si les favicons auraient un tel impact sur le taux de clics.

Parce que juste comme ça, Google l’a modifié.

Avant de vous lancer dans les derniers conseils SEO diffusés sur Twitter à la suite d'un changement de Google, attendez de voir s'ils tiendront.

Il se pourrait que les conseils qui semblent judicieux aujourd’hui deviennent rapidement un mythe si Google annule les modifications.

Davantage de ressources:

  • Comment fonctionnent les moteurs de recherche
  • Systèmes et signaux de classement Google 2024
  • Tendances SEO 2024

Image en vedette : Journal des moteurs de recherche/Paulo Bobita