SEO : 20 termes SEO à connaître
C’est Noël ! Mon cadeau de fin d’année : un récap de 20 termes SEO importants publiés sur le site DailyBlogTips.
Si vous avez un site Web ou un blog, ou si votre travail est lié de prêt ou de loin à Internet, vous aurez obligatoirement besoin de connaître les bases de l’optimisation pour le référencement (SEO). Un bon moyen de vous lancer est de vous familiariser avec les termes les plus communs, dont voici les 20 principaux (pour ceux qui connaissent déjà le SEO, considérez cet article comme un rappel !).
- SEM : Signifie “Search Engine Marketing”, et comme le nom l’indique, cela revient à promouvoir des produits ou des services via les moteurs de recherche. Le SEM est divisé en deux piliers principaux : le SEO et le PPC. SEO signifie “Search Engine Optimisation”, le fait d’optimiser les sites Web pour que leurs pages ressortent davantage dans les résultats des moteurs de recherche. PPC signifie Pay-Per-Click, la pratique d’acheter des clics aux moteurs de recherche. Les clics proviennent de liens commerciaux présents dans les résultats de recherche.
- Backlink : Egalement appelé “inlink” ou simplement “link” (lien), c’est un hyperlien sur un autre site qui mène vers votre propre site. Les backlinks sont importants pour le SEO car ils affectent directement le PageRank des pages, et donc le classement sur les moteurs de recherche.
- PageRank : Le PageRank est un algorithme que Google utilisé pour estimer la relative importance des pages. L’idée derrière cet algorithme est qu’un lien depuis une page A vers une page B peut être considéré comme un vote de confiance de la page A pour la page B. Plus il y a de liens (pondérés à leur valeur) vers une page, plus cette page est importance.
- Linkbait : Un “linkbait” est un contenu publié sur un site ou sur un blog avec l’objectif d’attirer autant de backlinks que possibles (afin d’améliorer la position sur les moteurs). C’est habituellement du contenu textuel, mais peut aussi être une vidéo, une image, un quiz, ou autre. Un exemple classique de linkbait est un article “Top 10” qui tend à devenir populaire sur les réseaux sociaux.
- Link Farm : Une Link Farm (ferme de liens) est un groupe de sites Web dans lequel chaque site contient des liens vers tous les autres sites du groupe, avec l’objectif d’améliorer artificiellement le PageRank de tous les site du groupe. Cette pratique était très efficace au début de l’ère des moteurs de recherche, mais est aujourd’hui considérée comme une forme de spam (et peut être pénalisée).
- Texte d’ancre : Le texte d’ancre d’un backlink est le texte cliquable sur la page. Avoir des ancres riches en mots-clés aide au SEO car Google associera ces mots-clés avec le contenu de votre site. Si vous tenez un blog sur la perte de poids, par exemple, cela améliorerait vos classements sur les résultats de recherche que vos backlinks contiennent les mots “perte de poids” dans leurs ancres.
- NoFollow : Le NoFollow est un attribut de lien utilisé par les sites Web pour indiquer à Google qu’ils ne souhaitent pas cautionner le site pointé par le lien. Cette situation peut se produire lorsqu’un lien est créé par les utilisateurs eux-mêmes (par exemple dans les commentaires de blogs), ou lorsque un lien a été acheté (sponsors, annonceurs…). Lorsque Google tombe sur un attribut NoFollow, il ne prendra pas ce lien en compte dans son algorithme de classement.
- Link Sculpting : En utilisant l’attribut NoFollow stratégiquement, les webmasters sont capables de canaliser le flux de PageRank au sein de leur site. Cette pratique n’est plus efficace car Google a récemment changé sa prise en charge de l’attribut NoFollow.
- Balise Title : la balise Title est littéralement le titre d’une page Web, et est l’un des facteurs les plus importants pour l’algorithme de recherche. Idéalement, votre balise Title devrait être unique et contenir les principaux mots-clés de votre page. Vous pouvez voir le Title en haut de votre navigateur.
- Meta tags : Comme la balise Title, les meta tags sont utilisés pour donner plus d’informations sur la page aux moteurs de recherche. Les meta tags sont placés dans l’en-tête (head) de votre page, et ne sont pas visible par les visiteurs humains.
- Algorithme de recherche : L’algorithme de Google est utilisé pour trouver les pages les plus pertinentes pour n’importe quelle requête. L’algorithme prend en compte plus de 200 facteurs (selon Google), dont la valeur du PageRank, la balise Title, les meta tags, le contenu du site, l’ancienneté du domaine, et bien d’autres.
- SERP : Signifie “Search Engine Results Page” (Page de résultats des moteurs de recherche). C’est simplement la page que vous voyez lorsque vous recherchez sur Google ou sur tout autre moteur de recherche. La quantité de trafic que recevra votre site dépendra de son classement au sein des SERPs.
- Sandbox : Google maintient un index séparé, la sandbox, où il place tous les nouveaux sites qu’il découvre. Lorsque les sites sont dans la sandbox, ils n’apparaissent pas dans les pages de résultats classiques de Google tant qu’ils n’ont pas été validés.
- Keywork Density : Pour déterminer la densité d’un mot-clé sur une page donnée, vous devez diviser le nombre de fois où le mot apparait par le nombre total de mots contenus dans la page. La densité d’un mot-clé était un important facteur SEO, mais ce n’est plus le cas de nos jours.
- Keyword Stuffing : Puisque la densité d’un mot-clé était importante il y a quelques années, les webmasters ont commencé à truquer le système en augmentant artificiellement la densité des mots-clés sur leurs sites. Cette pratique est nommée Keywork Stuffing. Désormais, cette pratique n’est d’aucune aide, et peut même entrainer une pénalité.
- Cloaking : Cette technique consiste à montrer du contenu différent pour la même page selon que le visiteur soit un internaute humain ou un robot des moteurs de recherche. L’objectif est de se faire bien classer sur un mot-clé, et de promouvoir sur la page des produits ou des services totalement différents. Cette pratique est considérée comme du spam, et peut vous faire pénaliser (voire banni) de la plupart des moteurs de recherche.
- Web Crawler : Aussi baptisés robots ou spider, c’est un programme informatique qui parcourt le Web pour les moteurs de recherche, essayant de découvrir de nouveaux liens ou de nouvelles pages. C’est la première étape du processus d’indexation.
- Duplicate Content : Le Duplicate Content se produit lorsque du contenu est similaire ou quasi-similaire sur plusieurs pages du même site ou de plusieurs sites. Vous devez absolument éviter le Duplicate Content sur votre site car c’est un facteur de pénalisation.
- Canonical URL : La canonicalisation consiste à convertir un ensemble de données ayant plusieurs représentation en une représentation standard. Selon cette définition, une URL canonique est l’URL standard d’accès à une page. Par exemple, la version canonique de votre site peut être www.domaine.com au lieu de domaine.com.
- Robots.txt : Ce n’est rien de plus qu’un simple fichier, placé à la racine de votre site, qui est utilisé pour informer les moteurs de recherche de la structure de votre site. Par exemple, via le fichier robots.txt, il est possible de bloquer certaines parties du site aux robots des moteurs.
Publié dans sa version originale en anglais sur DailyBlogTips
20 SEO Terms You Should Know

Merci !
Ces termes sont bien connus, mais une petite liste ne fait pas de mal. La révision exacte du terme “cloaking” par exemple.
Bien pratique pour une néophyte comme moi qui n’en connaissais pas la moitié. Merci !