Temps de lecture : 12 min

Les algorithmes de Google décident si votre site web, dont vos articles de blog, se positionnera en première ou en dernière position des résultats de recherche. Ils peuvent faire prospérer votre entreprise, ou l'exposer à d'importants risques financiers si son référencement est pénalisé.

Découvrez les 20 idées reçues sur le SEO à oublier en 2020.

 

Quelles sont les idées reçues sur le SEO ?

Téléchargez ce guide gratuit pour découvrir les tendances SEO inefficaces à oublier en 2020.

Bien entendu, impossible de vous livrer des informations sur la totalité de l'algorithme de Google. Ce secret est trop bien gardé...

Cependant, certaines parties de l'algorithme de Google sont régulièrement mises à jour. De plus, les connaître vous permettra d'acquérir une vision globale du SEO, d'analyser l'impact qu'ont certaines de ces mises à jour et, peut-être, aussi de comprendre un peu mieux ce que veulent vraiment dire votre webmaster ou votre expert SEO quand ils parlent de pingouins ou de pandas.

D'ailleurs, si vous avez constaté un brusque changement dans le trafic de votre site web ou dans son référencement, il y a de fortes chances qu'une mise à jour d'un algorithme de Google ait eu un impact positif ou négatif sur votre site web.

Utilisez cette liste d'algorithmes et de mises à jour de Google, classée par date de déploiement, pour comprendre la logique du référencement. Cela pourrait en surprendre plus d'un, mais le classement de Google ne repose pas sur un algorithme unique. En réalité, plusieurs algorithmes fonctionnent en parallèle.

Tous ces algorithmes servent à améliorer la qualité des résultats de recherche afin de fournir la meilleure expérience possible aux internautes. En effet, puisque leurs usages sur Internet évoluent, les algorithmes s'adaptent : de nouvelles règles sont créées ou modifiées en fonction des besoins et de l'attitude des utilisateurs.

Le nom des algorithmes n'est pas toujours facile à retenir et l'on se demande souvent comment certains d'entre eux ont été choisis. Outre ce mystère, cette liste vous permettra d'avoir un aperçu clair des principaux algorithmes de Google et de leurs mises à jour depuis 2010.

1 - Caffeine

Déployé en juin 2010, Caffeine est une refonte du système d'indexation de Google. L'algorithme Caffeine permet de crawler puis d'indexer une page instantanément. Avant sa mise en place, Google ne pouvait procéder à l'indexation de pages qu'après avoir extrait, analysé et compris leur contenu.

Grâce à ce nouveau système qui facilite et augmente la rapidité d'indexation, Google est désormais capable de proposer dans ses résultats de recherche, du contenu et des articles 50% plus récents qu'avant l'implémentation de l'algorithme.

2 - Panda

L'algorithme Panda est un « filtre de recherche ». Introduit pour la première fois en février 2011, il pénalise le référencement des sites web dont le contenu est de faible qualité. Ce filtre vise essentiellement à lutter contre les sites de contenu, créés uniquement pour le référencement et le spam.

L'algorithme Panda est mis à jour régulièrement pour permettre aux sites précédemment pénalisés de récupérer leur référencement après avoir amélioré la qualité de leur contenu, ou au contraire, pour pénaliser les sites qui ne respectent plus les directives de Google. Lors de son premier déploiement, Panda a eu un impact majeur sur la configuration des résultats de recherche en altérant 12% des SERPs aux États-Unis !

Après la mise à jour 4.2, la qualité du contenu est devenue un facteur de référencement et l'intégration de Panda à l'algorithme principal de Google a été confirmée en janvier 2016. Google n'annonce désormais donc plus les mises à jour de Panda : cet algorithme est constamment pris en compte pour définir le classement d'un site web dans les pages de résultats de recherche.

3 - Top Heavy - Excès de publicité

L'algorithme Top Heavy a été déployé en janvier 2012, afin de pénaliser le référencement de sites anormalement surchargés en publicités, notamment au-dessus de la ligne de flottaison.

Cependant, cette mise à jour mineure n'a eu qu'un impact de 1% sur les résultats de recherche.

4 - Penguin - Pingouin

L'algorithme Penguin est la bête noire des webmasters, dont chaque mise à jour fut très fortement discutée sur le web et entraîna des vagues de panique et de questionnement sur les réseaux sociaux. Les experts pourront le confirmer : à chaque fluctuation des SERPs, la communauté SEO s'affolait en craignant un nouveau changement dans l'algorithme Google dû à Penguin.

Comme Panda, cet algorithme est un filtre de recherche qui fut pour la première fois introduit en avril 2012. Il pénalise le référencement de sites web qui ne respectent pas les directives de Google en matière de création, d'achat ou de réseaux de liens.

Les webmasters pénalisés par Penguin devaient nettoyer leur portfolio de liens en désavouant les liens litigieux. Si ce nettoyage était fait correctement, ils pouvaient espérer récupérer leur référencement d'origine lors de la prochaine mise à jour. Cependant, ce nettoyage fastidieux n'est pas si simple : des mois ou même plusieurs années sont parfois nécessaires avant de pouvoir espérer échapper aux pénalités de référencement de Google.

Le 23 septembre 2016, lors du lancement de la mise à jour 4.0, Google annonça que cette mise à jour serait la dernière. À l'instar de Panda, l'algorithme Penguin a été ajouté dans l'algorithme cœur de Google et il fonctionne maintenant en temps réel.

À présent, la surveillance du portfolio de liens doit donc être un travail constant pour garantir un portfolio de liens sain, qui ne risque pas de pénaliser le référencement de certaines pages.

Qui plus est, l'ajout à l'algorithme principal de Google est une bonne nouvelle, car les webmasters n'auront plus à attendre une nouvelle mise à jour pour pouvoir récupérer leur référencement. En effet, presque deux ans se sont écoulés entre l'avant-dernière mise à jour de l'algorithme et le déploiement de la version 4.0 de Penguin.

5 - Pirate

L'algorithme Pirate est un filtre de recherche déployé en août 2012. Il vise à retirer des SERPs les sites ayant reçu des plaintes pour violation de droits d'auteurs, envoyées via le système DMCA de Google.

Ce filtre est mis à jour de façon régulière afin de faire disparaître les pages qui proposent le téléchargement illégal de films, de séries ou de musique.

6 - Exact Match Domain (EMD) - Correspondance exacte au nom de domaine

L'algorithme Exact Match Domain a été déployé en septembre 2012. Il permet d'éviter que des sites de faible qualité soient référencés dans les premiers résultats de recherche, simplement parce que leur nom de domaine correspond à une requête fortement recherchée par les internautes.

En effet, le nom de domaine a une forte influence sur le référencement et certains webmasters avaient trouvé une parade pour améliorer leur référencement, en créant des noms de domaine optimisés à outrance.

Par exemple, avant l'implémentation de cet algorithme, en prenant « www.logiciel-marketing-pas-cher.com » comme nom de domaine, il y avait de fortes chances pour que la page d'accueil de ce site web soit référencée dans les premiers résultats de recherche pour la requête « Logiciel marketing pas cher », même si le contenu de ses pages ne répondait pas forcément aux besoins des internautes. Le déploiement de cet algorithme a permis d'éviter de telles situations.

7 - Payday

Cet algorithme fut déployé en juin 2013. Il vise à améliorer la pertinence des SERPs en supprimant les résultats pour des requêtes très fortement assimilées au spam (sites de jeux en ligne, contenu pour adultes, crédits, contrefaçon...).

8 - Hummingbird - Colibri

Hummingbird a été déployé en septembre 2013. Cet algorithme est l'un des plus importants de Google. Il a eu un fort impact sur la façon dont nous formulons nos recherches. Google a choisi de nommer cet algorithme Hummingbird (colibri en français), car, grâce à lui, la recherche devenait précise et rapide.

Grâce à cet algorithme, Google peut dorénavant comprendre une requête ou une phrase dans son ensemble et non plus en fonction d'un ou de quelques mots-clés. Les résultats proposés sont donc de bien meilleure qualité et la recherche a pu devenir plus humaine, grâce à la compréhension de la recherche conversationnelle.

Depuis l'implémentation de ce nouvel algorithme, il est possible d'obtenir des réponses précises pour des requêtes du type : « Quelle est la boulangerie la plus proche » ou « Quel est le médecin de garde aujourd'hui ». Ce type de recherche était impensable auparavant... Hummingbird aurait-il ouvert la porte aux intelligences artificielles et aux assistants vocaux tels qu'Alexa ou Siri ? Probablement.

9 - Pigeon

L'algorithme Pigeon fut déployé en juillet 2014, aux États-Unis et en juin 2015 à l'international. Cet algorithme favorise les résultats de recherche locaux pour apporter des solutions plus précises aux requêtes des utilisateurs. Les modifications apportées par cet algorithme sont visibles sur Google et Google Maps.

L'algorithme Pigeon a eu surtout un impact sur les entreprises et business locaux tels que les restaurants, bars ou cabinets de médecins...

10 - Mobile Friendly - Compatibilité mobile

Le 21 avril 2015, Google procéda au déploiement de son algorithme Mobile Friendly, qui privilégie le référencement des sites web adaptés au mobile.

Cet algorithme a eu un impact encore plus important que ceux de Penguin ou Panda et il fut même renommé « mobilegeddon » par certains experts SEO : l'Armageddon de la compatibilité mobile.

Cet algorithme a été déployé en temps réel et page par page. Un site pouvait donc conserver un bon référencement global, même si certaines de ses pages n'étaient pas adaptées au format mobile.

Depuis 2015, la compatibilité mobile est une priorité pour Google et un facteur de référencement très important. D'ailleurs, en novembre 2016, Google a annoncé qu'il lancerait son Mobile First Index dans le courant de l'année 2017.

Qu'est-ce que Mobile First Index ? Jusqu'à présent, Google établissait le référencement des sites web en fonction de leur version desktop. Mais le comportement des utilisateurs change et ceux-ci passent plus de temps à surfer sur Internet avec un mobile qu'un ordinateur. Google a donc décidé de prendre en compte la version mobile d'un site web, au détriment de la version bureau afin d'effectuer son référencement.

Si votre site web n'est pas adapté au mobile, il est donc grand temps de procéder à certains changements. Vérifiez la compatibilité mobile de votre site internet en procédant à un test gratuit sur Website Grader.

11 - Rankbrain

Rankbrain, lancé au début de l'année 2015, fait en réalité partie de l'algorithme de recherche Hummingbird. Rankbrain est assez particulier et mystérieux, car il s'agirait d'une intelligence artificielle qui serait capable de comprendre le sens de requêtes similaires, mais formulées différemment.

Par exemple, cette intelligence artificielle pourrait comprendre, au fil de son apprentissage, que les requêtes « Barack » et « Mari de Michelle Obama » doivent apporter une réponse similaire qui est « Barack Obama ».

Dans la prolongation de Hummingbird, Rankbrain a pour vocation d'interpréter et de comprendre les recherches les plus abstraites des internautes. Plus important encore, Google a affirmé que Rankbrain faisait partie des trois facteurs de référencement les plus importants (avec la qualité du contenu et les liens).

L'apprentissage de Rankrain est appliqué sur toutes les recherches, mais il se fait hors ligne. Google l'alimente avec des fichiers de recherches historiques afin qu'il apprenne à faire des prédictions. Ces prédictions sont ensuite testées puis appliquées, si elles s'avèrent être correctes.

Vous ne pensiez pas qu'une simple recherche sur Google impliquait tout ce travail en amont, n'est-ce pas ?

12 - Quality ou Phantom

En mai 2015, la planète SEO s'affolait, car beaucoup de webmasters remarquaient des changements significatifs dans les SERPs. Cependant, lorsque les membres de l'équipe de Google, en charge de la qualité des moteurs de recherche, avaient été interpellés sur Twitter (comme c'est très souvent le cas), ceux-ci répondaient qu'ils n'avaient aucune mise à jour à annoncer.

Les webmasters, convaincus que quelque chose se produisait, décidèrent de nommer cette mise à jour Phantom, en raison de l'absence de réponse de Google, mais des signes évidents de changement.

Quelques semaines plus tard, Google confirma qu'une mise à jour avait effectivement été déployée et qu'elle portait sur la qualité du contenu des sites web. La mise à jour Phantom fut alors rebaptisée « Quality » par Google. Cependant, Google n'a jamais voulu préciser en quoi cette mise à jour était différente de l'algorithme Panda.

Périodiquement, des mises à jour sont remarquées par les experts SEO, mais niées par Google. Il existe donc plusieurs versions de l'algorithme Phantom, baptisées à défaut de meilleur nom, par Phantom 1, 2 ou 3. Cependant leur importance, leurs mécanismes et leur portée restent plus ou moins inconnus.

13 - Google double la longueur des descriptions

En novembre 2017, Google a doublé le nombre de caractères affiché dans les descriptions des résultats, passant d'une limite de 160 caractères à une limite de 320 caractères.

Avec cette mise à jour, Google continue à favoriser des phrases complètes et des descriptions qui contiennent suffisamment d'informations pour donner du contexte au lien, afin de mieux orienter l'internaute dans ses recherches. Il est donc possible que le moteur de recherche ne tienne pas compte de votre balise meta-description et coupe ou complète certaines descriptions.

Rappel : Les meta-descriptions ne rentrent pas en compte dans les classements des moteurs de recherche, mais restent essentielles pour inciter vos visiteurs à se rendre sur votre site.

14 - August 2018 Core Update

Lancée le 1er août 2018 en plein cours de l'été, cette Core Update se voit également nommée « Medic Update », et ce, pour plusieurs raisons. Il s'agit d'un format de mise à jour général de l'algorithme, dont les modifications apportées peuvent être plus ou moins importants selon les points qu'elle traite/optimise.

Ici, Google n'a pas plus donné d'indications précises sur ce qui a été apporté au moteur. L'unique communiqué à ce propos évoque le fait de suivre les mêmes conseils génériques que pour la précédente Core Update de mars 2018. Plusieurs spécialistes ont étudié la question de cette mise à jour, car le ranking s'est vu grandement modifié pour plusieurs sites, majoritairement dans :

  • La santé à la grande majorité.
  • La finance et le business.
  • Le secteur du e-commerce.

Plus tard, Google a affirmé que cette Core Update ne concerne pas uniquement les pages YMYL (Your Money Your Life) et les thématiques mentionnées plus haut, en laissant sous-entendre que cela concernait bel et bien tout le monde.

15 - June 2019 Core Update

Nouvelle mise à jour majeure de l'algorithme, celle de juin 2019 est plus précisément la première à avoir été officiellement annoncée aux spécialistes par le biais d'un tweet sur Twitter. Dans les faits, ce changement du moteur de recherche s'est vu effectif le 3 juin 2019.

Il s'agit d'une update dont l'objectif est de renforcer les exigences en matière de qualité globale à propos des résultats affichés dans les SERPs, notamment concernant les points suivants :

  • Vitesse de chargement et fluidité de navigation.
  • Couverture globale et pertinente de la thématique concernée.
  • Passage à HTTPS ou encore à un UX/UI full responsive design.

Cette mise à jour avait été un nouveau tournant dans la mise en valeur du contenu type articles de blog de qualité. Les sites de mauvaise qualité voient désormais leur ranking globale diminuer au profit des sites performants, régulièrement nourris avec du contenu bien construit, de qualité et qui répond toujours plus à la requête de l'internaute.

D'un autre côté, cette update diffère de par sa revalorisation dans les SERPs des suggestions de vidéos YouTube au-dessus des résultats de recherche.

16 - Site Diversity Core Update

Cette mise à jour de l'algorithme a été annoncée très peu de temps après la June 2019 Core Update et également lancée au cours de ce même mois de juin 2019. Son nom explicite le principe même des nouvelles règles qu'elle apporte : renforcer la diversité des résultats dans les pages de recherche.

Dans les faits, cette mise à jour vient limiter grandement la possibilité d'avoir plusieurs pages issues d'un même domaine dans les premiers résultats de recherche. Ainsi, sans l'affirmer clairement, Google favorise la concurrence entre les sites, mais aussi facilite le recoupage de sources des particuliers afin d'obtenir des informations toujours plus fiables.

Ce dernier point est donc à mettre en lien avec les critères de sélection du ranking des deux précédentes updates :

  • Un site au contenu structuré, pertinent et fiable.
  • Une expérience de navigation optimale (vitesse de chargement, etc.).
  • Une arborescence de site cohérente et intuitive.

Avec tous ces éléments, Google enterre définitivement des techniques plus ou moins loyales en matière de concurrence, à l'image des pages satellites. Cette méthode consistait à créer une page uniquement pour attirer du trafic issu d'un seul mot-clé ou requête.

17 - September 2019 Core Update

Moins impactant que ses prédécesseurs, ce changement dans le moteur a plus précisément été annoncé sur le Twitter dédié de Google le 24 septembre 2019.

Parmi les principales fluctuations de positionnement, ont été constatées des évolutions sur des sites autrefois moins bien rankés. Autrement dit, cette mise à jour est une revalorisation des résultats précédemment reclus aux positionnements bas dans les SERPs.

De ce fait, Google considère toujours plus chaque résultat existant pour continuer à proposer des SERPs pertinentes avec un contenu de qualité et sûr. Ces sites mal positionnés avaient pu connaître un ralentissement à l'époque de techniques plus abusives pas encore pénalisées par le moteur.

18 - BERT

Annoncée comme la mise à jour la plus importante pour le moteur de recherche de Google depuis 5 ans, BERT a officiellement été déployée en France le 9 décembre 2019, en parallèle du lancement dans de nombreux autres pays.

BERT représente véritablement les prémices d'une intelligence artificielle, à terme, dans le moteur. Cela se traduit par la contextualisation des mots-clés issus d'une requête, non plus considérés individuellement par le moteur, mais dans leur ensemble.

BERT tend à hiérarchiser les termes et expressions d'une requête par importance afin de gagner en compréhension de ce qui est attendu par l'internaute. Celui-ci, utilisant plus que jamais la recherche vocale ou sous forme de question écrite, verra alors les résultats proposés dans les SERPs toujours plus proches de ce qu'il en attendait initialement.

Vous connaissez maintenant un peu mieux tous les éléments qui peuvent influencer vos recherches ou le référencement de votre site web. En revanche, cette liste n'est pas exhaustive, car il existe également Big Daddy, Florida ou Bourbon, des mises à jours de l'algorithme plus anciennes encore.

Pour aller plus loin, téléchargez ce guide gratuit et découvrez quelles stratégies SEO mettre en place. 

20 idées reçues sur le SEO

 20 idées reçues sur le SEO à oublier en 2020

Publication originale le 5 mars 2020, mise à jour le 20 mai 2020

Sujet(s):

SEO