Pourquoi Google ne peut pas vous informer de chaque baisse de classement

Pourquoi Google ne peut pas vous informer de chaque baisse de classement

Dans un récent échange sur Twitter, Danny Sullivan, responsable de la liaison de recherche chez Google, a donné un aperçu de la manière dont le moteur de recherche gère les actions algorithmiques de spam et les baisses de classement.

La discussion a été déclenchée par la plainte d'un propriétaire de site Web concernant une perte de trafic importante et l'impossibilité de demander une révision manuelle.

Sullivan a précisé qu'un site pourrait être affecté par une action de spam algorithmique ou simplement ne pas être bien classé en raison d'autres facteurs.

Il a souligné que de nombreux sites connaissant des baisses de classement l'attribuent à tort à une action de spam algorithmique alors que ce n'est peut-être pas le cas.

« J'ai consulté de nombreux sites sur lesquels des internautes se sont plaints d'une perte de classement et ont décidé qu'ils appliquaient une action anti-spam algorithmique à leur encontre, mais ce n'est pas le cas. "

La déclaration complète de Sullivan vous aidera à comprendre les défis de transparence de Google.

De plus, il explique pourquoi le désir d’une révision manuelle pour remplacer les classements automatisés peut être erroné.

Deux choses différentes. Un site pourrait avoir une action anti-spam algorithmique. Un site peut ne pas être bien classé parce que d'autres systèmes qui *ne concernent pas le spam* ne le considèrent tout simplement pas comme utile.

J'ai consulté de nombreux sites sur lesquels des gens se sont plaints de perdre leur classement et ont décidé qu'ils avaient un…

– Google SearchLiaison (@searchliaison) 13 mai 2024

Défis en matière de transparence et d'intervention manuelle

Sullivan a reconnu l'idée d'offrir plus de transparence dans la Search Console, en informant potentiellement les propriétaires de sites des actions algorithmiques similaires aux actions manuelles.

Il a toutefois souligné deux défis majeurs :

  1. La révélation d’indicateurs algorithmiques de spam pourrait permettre à des acteurs malveillants de tromper le système.
  2. Les actions algorithmiques ne sont pas spécifiques au site et ne peuvent pas être levées manuellement.

Sullivan a exprimé sa sympathie pour la frustration de ne pas connaître la cause d'une baisse de trafic et de l'incapacité de communiquer avec quelqu'un à ce sujet.

Il a toutefois mis en garde contre la volonté d'une intervention manuelle qui pourrait outrepasser le classement des systèmes automatisés.

Sullivan déclare :

"... vous ne voulez pas vraiment penser "Oh, j'aurais juste aimé avoir une action manuelle, ce serait tellement plus facile." Vous ne voulez vraiment pas que votre site individuel retienne l'attention de nos analystes anti-spam. Premièrement, ce n’est pas comme si les actions manuelles étaient traitées instantanément. Deuxièmement, c'est simplement quelque chose que nous savons à propos d'un site à l'avenir, surtout s'il indique qu'il y a eu des changements mais que ce n'est pas vraiment le cas.

Déterminer l'utilité et la fiabilité du contenu

Au-delà du spam, Sullivan a discuté de divers systèmes permettant d'évaluer l'utilité, l'utilité et la fiabilité du contenu et des sites individuels.

Il a reconnu que ces systèmes sont imparfaits et que certains sites de haute qualité peuvent ne pas être reconnus aussi bien qu'ils devraient l'être.

« Certains d’entre eux se classent très bien. Mais ils ont descendu un peu dans des positions suffisamment petites pour que la baisse du trafic soit notable. Ils supposent qu'ils ont des problèmes fondamentaux, mais ce n'est pas vraiment le cas - c'est pourquoi nous avons ajouté une section entière à ce sujet à notre page de débogage des baisses de trafic.

Sullivan a révélé des discussions en cours sur la fourniture de davantage d'indicateurs dans la Search Console pour aider les créateurs à comprendre les performances de leur contenu.

« Une autre chose dont j'ai discuté, et je ne suis pas le seul dans ce cas, est la suivante : pourrions-nous faire davantage dans la Search Console pour afficher certains de ces indicateurs. Tout cela est un défi similaire à tout ce que j'ai dit à propos du spam, sur le fait de ne pas vouloir laisser les systèmes se faire jouer, et aussi sur le fait qu'il n'y a alors aucun bouton sur lequel nous pouvions appuyer qui ressemble à "en fait plus utile que nos systèmes automatisés ne le pensent - classez-le mieux". ! » Mais peut-être existe-t-il un moyen de partager davantage, d'une manière qui aide tout le monde et, couplée à de meilleurs conseils, aiderait les créateurs.

Plaidoyer pour les petits éditeurs et progrès positifs

En réponse à une suggestion de Brandon Saltalamacchia, fondateur de RetroDodo, concernant l'examen manuel des « bons » sites et la fourniture de conseils, Sullivan a partagé ses réflexions sur les solutions potentielles.

Il a mentionné l'exploration d'idées telles que l'auto-déclaration au moyen de données structurées pour les petits éditeurs et l'apprentissage de ces informations pour apporter des changements positifs.

«J'ai exploré et proposé quelques réflexions sur ce que nous pourrions faire avec les petits éditeurs et l'auto-déclaration avec des données structurées et sur la manière dont nous pourrions en tirer des leçons et les utiliser de diverses manières. Ce qui est bien en avance sur moi-même et sur les promesses habituelles, mais oui, je pense et j'espère trouver des moyens d'avancer de manière plus positive.

Sullivan a déclaré qu'il ne pouvait pas faire de promesses ou mettre en œuvre des changements du jour au lendemain, mais il a exprimé l'espoir de trouver des moyens d'avancer de manière positive.


Image en vedette : Tero Vesalainen/Shutterstock