Algorithme: un algorithme regroupe un ensemble de règles qui permettent de résoudre un problème, comme l’identification des pages les plus pertinentes pour un mot-clé donné dans le cas du référencement. Ces règles mathématique sont regroupe et interprétées par un programme informatique. Un algorithme comme Google plusieurs centaines de critères.
AMP : acronyme d’Accelerated Mobile pages, ce format a été par Google en 2012. L’AMP pour vocation d’accélérer l’affichage du contenu des pages web proposant des actualités.
Ancre: dans un lien hypertexte, l’ancre est la partie du texte sur laquelle l’internaute clique pour accéder au niveau contenu. Pour distinguer l’ancre du lien hypertexte du contenu principal, celle-ci est généralement mise en valeur par une couleur différente et est soulignée. Vous trouverez aussi parfois le terme de texte d’ancrage.
En anglais : anchor text.
Backlink: lien retour. Cf. Lien entrant.
Black hat: un référenceur black hat cherche à manipuler les algorithmes de Google grâce à des pratiques douteuses, comme la génération automatique et en masse de liens ou de contenus. Un site référencé par des techniques black hat peut rapidement gagner des positions, mais peut les perdre tout aussi vite.
Bredcrumbs: cette balise permet de renseigner Google et les différents moteurs de recherche sur l’URL à indexer si plusieurs pages hébergent le même contenu.
Elle est par exemple utilisée pour des catégories e-commerce qui contiennent des tris ou des filtres. Ajoutée dans la l’en-tête HTML de toutes les pages qui partagent le même contenu, entre les balises <HEAD></HEAD>, elle prend la forme suivante :
<link rel= ‘’cononical’’href=’’www.monsite.com/monurlofficielle.html’’/>
Contenu dupliqué: le contenu dupliqué est un contenu visible ailleurs sur le web, que ce soit sur votre propre site (contenu dupliqué interne) ou sur un site externe (contenu dupliqué externe). Le contenu dupliqué est déprécié par les moteurs de recherche qui souhaitent proposer des résultats variés pour répondre aux attentes de leurs utilisateurs. En anglais : duplicate content.
Cloaking: technique consistant à présenter une page différente aux robots d’indexation et aux internautes. La technique étant trompeuse et souvent utilisée pour manipuler l’algorithme, elle expose le site à des pénalités de Google.
Crawler: Robot d’indexation
Data center: les centre de données permettent de stocker de nombreux informations, Dans le cas de Google, l’immense index qui accueille certainement une partie de votre site est sauvegardé dans des data centers.
Deep-linking: pratique consistant à créer un lien vers une page profonde d’un site et non envers la page d’accueil.
Duplicate content : cf. Contenu dupliqué.
DUST: l’acronyme de Duplicate URL same Text désigne un cas particulier de contenu dupliqué. Un même contenu est ainsi accessible depuis plusieurs URL: ces soucis peuvent être provoqués par des erreurs techniques ou des solutions de tracking publicitaire. Par exemple, l’URL d’une page est accessible via ww.monsite.com/page.html et www.monsite.com/page.html?sourceid=241985; Google pourrait indexer les deux URL pour un seul contenu. La balise cononical constitue l’une des solutions pour lutter contre le DUST.
Extraits enrichis: les résultats visibles sur les pages de résultats de Google contiennent généralement un titre cliquable, l’URL de la page et une courte description.
Pour certaines requêtes, il est possible d’afficher des informations complémentaires : notations des internautes, photographie, prix, dates de contact, fil d’Ariane, etc.
L’affichage de ces extraits s’appuie sur les données structurées. En anglais : rich snippet
Fil d’Ariane: présent en haut de la page, le fil d’Ariane explicite la position de l’internaute sur le site, en portant de la page d’accueil et en énumérant d’éventuelles rubriques ou sous-rubriques. En anglais : breadcrumbs.
Googlebot: Googlebot est principal robot d’indexation de Google. Différentes versions sillonnent le Web : Googlebot News, Googlebot Image, Googlebot video …
Google Suggest: des suggestions pour compléter vos requêtes sont proposées en cours de saisie depuis août 2008. Si vous tapez << pourquoi les cigales>> Google vous proposera différentes suggestions :<< Pourquoi les cigales chantent>>, <<pourquoi les cigales ne chantent pas>>, <<Pourquoi les cigales arrêtent de chanter>>
Jus de liens: chaque page reçoit de la popularité grâce à de liens entrant qu’elle répartit ensuite entre les différents liens sortants. La popularité en SEO se manipule comme fluide : toute popularité reçue est redistribuée. En anglais : link juice.
Keyword stuffing: littéralement bourrage de mots-clés, cette pratique consiste à multiplier les termes et expressions dans une page, soit en plaçant le plus possible dans un texte rédigé, soit en se contentant de simples listes ou juxtapositions.
Le keyword stuffing est condamné par Google et fortement déconseillé.
Knowledge Graph: ajoutée en 2012, cette fonctionnalité s’appuie sur une immense base les pages de résultats de Google. Si vous tapez <<Hauteur de la tour Eiffel>>, vous obtiendrez sa taille en mètre. Si vous tapez le nom d’un acteur connu, vous obtiendrez un cadre avec des photos, un résumé de sa biographie, une sélection de ses films. Si vous tapez le nom d’une région ou d’un pays, d’autres informations s’afficheront comme l’indicatif téléphonique, l’emblème, les destinations populaires, etc.
Lien commercial: sur les pages de résultat de Google, les liens commerciaux correspondent aux annonces publicitaires Google Ads. Les liens commerciaux sont nombreux pour qualifier les différents types de liens entrants.
Les termes inbound link, inlinks et backlinck (liens retour) sont souvent utilisés pour définir les liens extérieurs qui pointent vers les pages de votre site.
Liens entrant: le lien entrant est un lien réalisé sur une ou plusieurs pages d’un site tiers, et qui pointe vers une URL de votre site. Les termes anglophones sont nombreux pour qualifier les différents types de liens entrants. Les termes inbound link, inlinks et blacklink (lien retour) sont souvent utilisés pour définir les liens extérieurs qui pointent vers les pages de votre site.
Liens sponsorisé: Liens commercial
Linkbaiting : la traduction littérale, << appât à liens>> permet de mieux appréhender la notion de linkbaiting. Cette pratique consiste à produire des contenus se démarquant par leur qualité, leur originalité, leur teneur polémique ou leur nouveauté. Ils seront naturellement cités sur d’autres sites, améliorant votre netlinking.
Link juice: cf. Jus de Liens
Longue traîne: la majorité de votre issu des moteurs de recherche ne repose pas sur une poignée d’expressions vedettes, mais bien sur des centaines, des milliers, des dizaines ou des certaines de milliers d’expressions.
Peu recherchées, peu concurrentielles, elles apportent une fois additionnées, un grand nombre de visiteurs. Travailler sa longue traîne consiste donc à multiplier le positionnement d’expressions secondaires, constituées généralement de plusieurs mots-clés. En anglais : long tail.
Negative SEO: certains référenceurs décident de nuire au référencement d’autre site en provoquant les conditions d’une sanction. Pour cela, ils peuvent générer des liens de mauvaise qualité vers votre site, menant à un risque de pénalité Penguin ou encore aspirer votre contenu pour le dupliquer sur d’autres sites.
Netlinking: le netlinking rassemble toutes les stratégies consistant à augmenter le nombre de liens hypertextes pointant vers votre site, et toutes les actions visant modeler et/ou affiner ce profil de liens entrants.
PageRank: cette technologie à l’origine du succès de Google, permet d’évaluer la popularité d’une page. Le PageRank a longtemps été au cœur des préoccupations des référenceurs, car il était communiqué publiquement sous la forme d’un score allant de 0 à 10.
Il constituait alors un critère de choix pour déterminer des échanges de liens équitables et trouver les meilleures pages pour placer ses liens. Si le PageRank continue d’exister dans l’algorithme, l’absence de mise à jour d’un score PageRank depuis décembre 2013 l’a rendu obsolète dans le cadre d’une stratégie de référencement naturel.
Recherche Universelle: Google indexe d’autres types de documents que des pages web. Vous trouverez aussi des vidéos, des images, des articles d’actualités, des fiches d’établissements locaux, des produits vendus en ligne…
Avec la recherche Universelle l’algorithme détermine les types de contenus les plus pertinents pour chaque requête et décide de leur affichage en première page.
La recherche d’un tutoriel, par exemple, entraîne souvent l’affichage de vidéos, tandis qu’une expression autour de la décoration ou de l’ameublement favorise régulièrement des résultats Google shopping et des images.
La recherche d’un magasin ou d’un restaurant va quant à elle favoriser les résultats locaux.
Redirection 301: une redirection 301 indique aux navigateurs et aux robots d’indexation qu’une page a changée définitivement d’URL. Google peut ainsi mettre à jour son index et prendre en compte la nouvelle adresse.
Redirection 302: une redirection 302 indique aux navigateurs et aux robots d’indexation qu’une page a changée temporairement d’URL. Elle n’est que rarement utilisée en SEO et dans des situations particulières.
RGPD: le règlement Général sur la protection des Données est une directive européenne entrée en vigueur en mai 2018. Le RGPD contraint notamment les différents acteurs du web à une plus grande vigilance et à un professionnalisme exacerbé dans la gestion des données personnelles de leurs clients, partenaires, fournisseurs et autres partie prenantes.
Rich Snippet: cf. Extraits enrichis.
Robot d’indexation: Robot d’indexation parcourt automatiquement le web à la recherche de nouvelle page et documents. Il utilise le plus souvent pour cela les liens hypertexte qu’il rencontre en chemin, mais peut aussi explorer les contenus soumis par les utilisateurs ou ceux transmis par un fichier sitemap. Le robot d’indexation le plus connu est celui de Google appelé Googlebot, dont il existe plusieurs versions.
SEA : le search engine advertising désigne la sécurité marketing qui optimise la présence d’une marque via publicité sur les moteurs de recherche, en passant par des règles publicitaires comme Google Ads ou bing ou Bing Ads. On le traduit généralement par l’expression << référencement payant>>.
SEO : l’acronyme de search engine optimization, littéralement << optimisation pour les moteurs de recherche>> est généralement traduit en français par l’expression <<référencement naturel>>, plus rarement par << référencement organique>>.
SEM: le search engine marketing rassemble les différentes disciplines se rapportant au marketing des moteurs de recherche, et regroupe le référencement naturel et le référencement payant.
SERP: l’acronyme de search engine results page désigne tout simplement la page des résultats de moteurs de recherche.
Site multilingue: un site multilingue est proposé en plusieurs langues, sans distinction de pays. Un site multilingue en anglais et en français propose deux versions destinées au monde entier : l’une pour les internautes francophones et l’autre pour les internautes anglophones. Un site multilingue peut aussi cibler un seul pays : un site belge peut cibler uniquement la Belgique avec une version francophone et une version néerlandophone.
Site multirégional: un site multirégional propose différentes versions en fonction des pays ciblés. Un site multirégional en anglais peut par exemple proposer trois versions : l’une pour le Royaume-Uni, l’autre pour les États-Unis et la dernière pour l’Australie.
Site multirégional et multilingue: certains sites associent les propriétés des sites multilingues et multirégionaux. Un tel site propose des versions distinctes sur différents pays avec une ou plusieurs longues par zone géographique. Par exemple, un site web peut proposer une version anglophone pour les États-Unis et la dernière pour l’Australie.
Site multirégional et multilingue: certains sites associent les propriétés des sites multilingues et multirégionaux. Un tel site propose des versions distinctes sur différents pays avec une ou plusieurs langues par zone géographique. Par exemple, un site web peut proposer une version anglophone pour les Etats-Unis, deux versions : – une anglophone et francophone – pour le canada, et une dernière version francophone pour la France.
Sitemap: un sitemap est un fichier qui permet d’informer un moteur de recherche sur pages à indexer et leur niveau d’importance. Il existe aussi des sitemaps pour d’autres types de documents comme les images, les vidéos ou les actualités.
Le format XML est privilégié pour la création de sitemaps.
Sur-optimisation: les sur-optimisations en référencement peuvent prendre différentes formes. Par exemple : contenu éditorial et balises bourrés des mots-clés, netlinking se focalisant sur une seule ancre ou une seul page, etc. La sur-optimisation peut conduire à une seule ancre ou une seule page, etc. La sur-optimisation peut conduire à une perte de positions, voire à une sanction de Google: si un site doit être optimisé, un site trop optimisé (donc sur-optimisé) est jugé pertinent.
White hat: contrairement au blach hat, un référenceur White hat se réfère aux règles de Google et respect ses principes déontologiques. Il travaille l’optimisation du site de son contenu, il développe une stratégie de netlinking qui ne repose (presque) pas sur des artifices. Un référencement white hat bien mené demande plus d’énergie que des pratiques black hat mais offre généralement un positionnement plus pérenne.
WHOIS: ce service de recherche, fourni par les registres internet, permet d’obtenir facilement des informations sur un nom de domaine ou une adresse IP, comme les noms de l’hébergeur et du propriétaire.
Principales mises à jour Google
Des centaines des mises à jour ont été déployées depuis le lancement de l’algorithme.
Nous n’avons pas vocation à toutes les présenter ici. Nous avons forcément dû en choisir quelques-unes parmi les plus importantes, classés par ordre alphabétique.
Austin: déployée en janvier 2004, Austin a continué le grand ménage initié notamment par Cassandra puis Florida. Le texte invisible et l’abus de mots-clés dans les balises META font partie des éléments sanctionnés.
Big Daddy: déployées en décembre 2005, cette mise à jour peu connue du grand public a pourtant entraîné des grandes modifications internes à l’algorithme.
Boston: déployée en février 2003, c’est la première mise à jour de Google à savoir été officiellement nommée. Elle consistait notamment en un rafraîchissement de l’index et quelques modifications de l’algorithme.
Caffeine: déployée en 2010, cette mise à jour a amélioré le processus d’exploitation et d’indexation du moteur de recherche. Le principal objectif ? Suivre la cadence imposée par un Internet en pleine expansion qui propose chaque jour toujours plus de contenus, pages web, vidéos, images, actualités…
Cassandra: déployée en avril 2003, elle a été la première mise à jour à cibler avec vigueur les pratiques abusives de certains référenceurs. Elle s’est notamment attaquée aux liens de faible qualité provenant de domaines appartenant à une même personne. Elle a aussi sanctionné les liens et textes cachés dans une page.
Calibri: déployée en 2013, cette mise à jour a pour vocation d’améliorer la compréhension des expressions pour apporter des informations plus précises.
Calibri va dans le sens général de Google : ne pas restituer seulement les pages qui contiennent les mots-clés tapés, mais aussi celles qui apportent une réponse aux préoccupations ou aux attentes des internautes. Si je souhaite acheter un Smartphone << près de chez moi>>, je cherche donc une boutique physique et pas un site e-commerce, par exemple. En anglais : hummingbird.
Florida: déployée en novembre 2003, quelques mois après Cassandra, cette mise à jour montre la détermination farouche de Google à lutter contre les pratiques abusives. S’attaquant entre autre au keyword stuffing, elle a impacté négativement de nombreux sites.
Hummingbird: cf.colibri
Mobile friendly/Mobile First : déployée en avril 2015, la mise à jour Mobile Friendly favorise les sites dont les pages sont compatibles avec le web mobile. Une seconde version de cette update est mise en ligne en mai 2016. Courant 2017, elle est suivie par l’index Mobile First : Google privilégie alors l’exploration de la version mobile d’une page.
Panda: cette série de mises à jour de Google vise qui offrent un contenu de mauvaise qualité, trop pauvre, envahi par la publicité… Apparu pour la première fois en 2011, Google Panda a été pensé pour lutter contre les sites sans véritable contenu, avec du texte généré automatiquement ou dupliqué, ou simplement des pages vides.
Penguin (en français : pingouin): lancée en 2012, la série de mises à jour penguin s’intéresse aux sites qui tentent de manipuler leur popularité par un netlinking trafiqué. Des liens hébergés sur des sites douteux, la présence d’une trop forte proportion d’ancres optimisée constituent quelques exemples de pratiques poursuivies et condamnées.
Pigein: Cette mise à jour, déployée au second semestre 2014, s’est attaquée à la question des résultats locaux. Google Pigeon a en effet contribué à modifier la structure et la nature des résultats associés à une requête portant sur des lieux, des prestataires ou des établissements de proximité.
RankBrain: annoncée en 2015, la mise à jour RankBrain signe le passage officiel de Google dans l’ère de l’intelligence artificielle. Grâce aux dernières avancées technologiques, notamment le deep learning et les réseaux de neurones, l’algorithme est capable d’analyser des requêtes encore jamais formulées par les internautes pour y apporter des réponses pertinentes. Il s’appuie aussi sur les données à sa disposition (sites web indexés, comportements des internautes…) pour déterminer plus précisément l’intention de recherche qui se cache derrière chaque expression.
Venice: cette mise à jour date de début 2012. Elle a notamment permis à Google d’apporter des résultats locaux pour des requêtes comme <<Femme de ménage>> ou <<restaurant>> sous-entendent des résultats locaux, car on recrute une aide à la personne ou on veut trouver un restaurant près de chez soi.
La recherche et l’exécution de SEO négatifs doivent être simples! Nous comprenons que tout le monde ne comprend pas les subtilités de la création de campagnes de référencement positives / négatives, c’est pourquoi REPUTATION NET est ici. Tout ce que vous avez à faire est de sélectionner ce dont vous avez besoin et de nous laisser le reste.