Lexique pour se familiariser en référencement

Lexique pour se familiariser avec le jargon du référencement, et probablement de votre référenceur :)

Le vocabulaire à connaître n’est pas toujours connu de tous. Voici une page qui reprend les principaux termes et acronymes de l’univers du référencement naturel :

S.E.O. Search Engine Optimisation : C’est le fait de travailler votre positionnement, la méthode porte le nom d’optimisation pour les moteurs de recherche. Il s’agit de l’ensemble des moyens qui vont être mis en œuvre pour améliorer la visibilité de votre site Internet. Sont principalement utilisés la soumission et le positionnement.

Référencement payant : En opposition au référencement naturel (SEO), cette méthode consiste à payer les principaux moteurs de recherche pour améliorer son positionnement et sa visibilité sur Internet. La plupart du temps, il s’agit de liens commerciaux et de publicités qui s’affichent lorsqu’un internaute effectue une recherche. Le paiement se fait la plupart du temps « au clic », c’est-à-dire que l’annonceur va payer le moteur de recherche en fonction du nombre de clics qu’il y aura eu sur la publicité. Il est important de savoir que ce référencement ne dure pas dans le temps puisque, dès que vous allez arrêter de rémunérer le moteur de recherche, vous n’apparaîtrez plus dans ses annonces publicitaires. Utiliser temporairement, ce moyen peut également agir sur le référencement naturel de votre site Internet, car le nombre de visites augmentera forcément, et l’intérêt des moteurs de recherche pour le site également.

À savoir que cette méthode de référencement n’est pas franchement rentable sur le long terme et il vaut mieux opter pour un référencement naturel.

Moteurs de recherche : Search engine en anglais, ils vous permettent d’avoir accès à une grande quantité d’informations tout simplement en renseignant une expression clé dans la zone de recherche. Le plus connu des moteurs de recherche est Google, mais vous avez également sans doute déjà entendu parler de Bing, Voila ou encore Yahoo.

Ces différents moteurs de recherche fonctionnent tous de la même façon grasse à des robots qui vont parcourir en long en large et en travers toutes les informations disponibles sur Internet, cela va se faire successivement de lien en lien pour leur permettre d’indexer le contenu de ces pages dans de nombreuses bases de données qui seront ensuite interrogées par les internautes lorsqu’ils effectueront une recherche. Cette manipulation prend généralement plusieurs semaines et elle est effectuée sur différentes périodes de l’année.

Quand un utilisateur va se positionner sur un moteur de recherche et qu’il va compléter la zone de requête par un mot ou une expression, sa demande va être directement transmise au moteur de recherche qui va puiser dans sa base de données afin de donner à l’internaute un résultat qui correspond parfaitement à sa demande.

Les différentes réponses proposées à l’utilisateur sont classées par pertinence en fonction des critères de chacun des moteurs de recherche. Ces résultats sont appelés SERP et ils contiennent des liens vers des pages Internet dans lesquelles l’internaute va pouvoir trouver la réponse à sa recherche. Il y a deux possibilités, soit les mots employés par l’utilisateur sont contenus dans le début du texte de la page soit ils ont été rentrés par le webmaster grâce aux balises meta-tags.

Webmaster : C’est tout simplement la personne qui est en charge de concevoir, animer, gérer et administrer un site Internet. Un webmaster va, non seulement intervenir lors de la création du site, mais il va également être en charge de sa maintenance.

En faisant appel à un webmaster, vous êtes assuré d’obtenir le site Internet que vous souhaitez puisqu’avant même le début de la création de votre site, il va vous faire compléter un cahier des charges afin de mieux cerner votre demande et vos attentes. Une fois le site réalisé, vous allez pouvoir solliciter votre webmaster si vous rencontrez le moindre problème technique avec votre site.

Aujourd’hui, de nombreux logiciels et applications vous permettent de créer vous-même votre site Internet, mais sachez que si vous voulez obtenir un résultat professionnel, il vaut mieux faire appel aux personnes dont c’est le métier.

Soumission : Cette action a pour conséquence d’augmenter la notoriété d’un site sur les moteurs de recherche. Elle représente la première étape dans le référencement d’un site, celle qui va permettre au moteur de recherche d’identifier votre site et de venir le visiter. Plus il y aura de liens, plus le moteur de recherche pensera que votre site est populaire.

Positionnement : C’est le rang que Google vous accorde dans les pages de résultats. Il s’agit de travailler sur certaines pages d’un site pour qu’elles soient bien positionnées sur certains mots clés. Pour cela, il va falloir travailler sur l’optimisation du contenu des pages du site Internet en employant le plus possible les mots clés définis à l’avance.

Optimisation : Cela consiste à prendre en compte plusieurs éléments lors de la conception d’un site Internet et plus particulièrement au moment de la rédaction et de la structure des pages. Très souvent, l’optimisation est fortement appliquée à la page d’accueil d’un site, mais il est important de savoir qu’il est impératif de travailler aussi sur les autres pages et notamment sur leur contenu. Pour optimiser au mieux un site Internet, il faut donc être attentif au contenu des pages, bien choisir les titres, opter pour une URL en rapport avec votre activité, établir des textes lisibles par les différents moteurs de recherche, renseigner correctement les balises META, insérer de bons liens, intégré des attributs ALT.

Indexation : Il s’agit d’effectuer l’enregistrement d’un site Internet dans la base de données des différents moteurs de recherche. Cette manipulation se fait à l’aide d’un formulaire proposé par les différents moteurs de recherche qui vont ensuite parcourir votre site et l’intégrer à leur base de données.

Le contenu : Pour obtenir un bon référencement, un contenu de bonne qualité est primordial puisque les moteurs de recherche souhaitent le meilleur pour leurs internautes en leur offrant les résultats les plus pertinents en fonction de leurs recherches. Plus le contenu est intéressant, plus les internautes resteront longtemps sur le site.

Pour cela, le contenu doit être unique, on ne vous demande pas de créer un texte qui ne sera présent sur aucun autre site, mais plutôt de lui apporter une valeur ajoutée en le concevant de façon originale et en élargissant les champs lexicaux des thèmes abordés. Il faut que les moteurs de recherche trouvent de l’intérêt à vos textes, qu’ils soient accrocheurs et pertinents. La mise à jour régulière du contenu de votre site va également avoir un impact majeur sur la montée en puissance de votre positionnement.

Contenu Dupliqué : Le fameux « duplicate content ». C’est une pratique absurde qui consiste à reprendre des textes déjà rédigés par d’autres sites et, de se les approprier en les replaçant sur ses propres pages. Pratique facilement détectable pour les robots qui savent retrouver les contenus qui ont été copiés et pour lesquels les archives sont datées. Certains pensent qu’il est possible de recopier quelques paragraphes de changer quelques mots et que le tour est joué… C’est sous-estimer la qualité du crawl du moteur de recherche qui sait apprécier la question en terme de taux de similarité. La règle est alors très simple, rédigez vos propres contenus, uniques, ils sauront mettre en valeur vos idées. Pour finir sur une note ironique, les textes les plus plagiés sont ceux qui sont les plus populaires (ceux qu’on trouve le plus facilement), et, là, c’est à coup sûr que Google déterminera sans se tromper qui est l’auteur original de la page.

En ayant recours à ce mode opératoire, vous allez être pénalisé par le moteur de recherche, nous vous conseillons donc de bloquer le contenu de la page avec robots.txt ou par une balise META robots « noindex ».

Balises canonicales : Au moment où Google va détecter un duplicata, il va conserver une seule des deux pages cependant, il arrive parfois que ce ne soit pas la page originale qui soit conservée. Pour éviter ce genre de confusion, vous devez insérer une balise canonicale sur les pages dupliquées qui pointent directement vers la page à conserver.

Pénalités : Lorsque le moteur de recherche va découvrir un contenu dupliqué ou une fausse note sur votre site, il va pouvoir vous attribuer deux sortes de pénalités en fonction de l’infraction commise :

– les pénalités manuelles : elles sont mises en place manuellement et non par des robots lorsqu’un webmaster n’a pas respecté les consignes. La pénalité manuelle la plus répandue est celle appliquée pour l’achat de liens. Dans ce cas, les deux sites seront pénalisés, celui ayant acheté le lien, mais également le vendeur de ce lien. Ces pénalités instaurées par une action humaine seront retirées une fois que la source de conflit sera réglée. Vous devrez ensuite faire une demande pour que votre site soit à nouveau examiné par le moteur de recherche. Cela peut prendre plusieurs mois et vous ne serez pas certain de récupérer votre positionnement précédent.

– Les pénalités algorithmiques : elles sont faites automatiquement par le moteur de recherche qui a décidé de déclasser un site qu’il a jugé de mauvaise qualité. Il s’agit généralement d’un ensemble de signes qui sont réunis pour laisser penser à un algorithme d’un moteur de recherche que le site n’est pas fiable.

Algorithme Google : Quand une requête est effectuée sur Google, c’est l’algorithme qui va lui permettre de fournir une page de résultats à l’internaute. Voici les principaux algorithmes de Google :

PageRank : C’est l’indice qui est donné à chaque page Web et qui sert à étudier les liens entre différentes pages. Généralement, la page d’un site qui dispose du plus grand nombre de PageRank est la page d’accueil. Cet indice va augmenter en fonction du nombre de liens entrants disponibles sur une page. C’est-à-dire que si votre page dispose de nombreux liens, elle aura donc un PageRank important.

En plus de cet élément, d’autres composants vont être pris en compte par l’algorithme pour faire évoluer votre positionnement sur les moteurs de recherche :

– la nouveauté,

– si l’auteur est mentionné,

– le temps de visite d’un internaute,

– les différentes sources de trafic, etc.

Google Caffeine : Cet algorithme va permettre de prendre en compte plus rapidement et plus efficacement les informations et les mises à jour. C’est ce qui vous permet, en tant qu’internaute, d’obtenir les meilleurs résultats lorsque vous procédez à une recherche sur Google.

Google Panda : Il s’agit d’un filtre développé par Google afin d’identifier les sites de mauvaise qualité. Google Panda va donc pénaliser les sites dont le contenu est jugé médiocre en détériorant leur référencement.

Google Penguin : De nombreuses agences de référencement qui ne sont pas très fiables vous proposent l’inscription dans de nombreux annuaires afin d’optimiser votre SEO. Il faut faire attention, car ce genre de procédure est pénalisée par les moteurs de recherche grâce à Google Penguin. Cette mise à jour va en effet détecter les sites qui contiennent un nombre de liens trop importants et qui en plus n’ont souvent rien à voir avec le thème du site et leur positionnement sera pénalisé.

La seule solution pour retirer cette pénalité est de compléter le formulaire mis à votre disposition et en retirant les liens qui vous portent préjudice.

Le titre de la page : Ces quelques mots ont une importance capitale, nous vous recommandons donc de vous pencher sérieusement sur les titres de vos pages. Tout d’abord, car ce sont eux qui vont définir précisément le contenu de votre page et ils vont donc inciter l’internaute à cliquer sur le lien de votre site. Un titre non accrocheur et sans intérêt ne sera pas pris en compte par les moteurs de recherche.

URL : Uniform Ressource Locator : Plus communément appelée adresse Web, une URL est une chaîne de caractères qui se présentent sous la forme www.exemple.fr ou http://exemple.fr, exemple.fr étant le nom de domaine du site Web. Pour obtenir un bon positionnement sur les moteurs de recherche, il est impératif que certains mots clés soient présents dans votre nom de domaine et donc dans votre URL. Cette adresse ne doit pas être trop longue, cela permettra aux internautes de mieux s’en souvenir.

Nom de domaine : Il peut être composé d’un ou plusieurs mots directement associés ou séparés par un signe de ponctuation qui est suivi d’une extension de deux lettres (.fr ou .com ou .net…). C’est l’élément principal de votre URL et il doit être en rapport direct avec l’activité de votre site Internet.

Mots clés : Également appelés keywords, ce sont des mots qui caractérisent la demande de l’internaute lorsqu’il effectue une recherche sur Internet. Il peut s’agir de mots seuls ou d’expressions composées de plusieurs mots en rapport direct avec l’activité de votre site. Ils doivent être le plus courts possible et peuvent même comporter des fautes d’orthographe. Il est important en amont de votre stratégie de bien déterminer vos expressions cibles.

Corps de la page : Il rejoint le contenu de la page puisqu’il s’agit de l’ensemble du contenu de chacune de vos pages Web. Il est préférable d’y retrouver un maximum de textes qui sera plus facilement reconnu et pris en compte par les moteurs de recherche. Ce contenu qui sera visible par les internautes devra être de très bonne qualité et on devra y retrouver les différents mots clés que vous aurez choisis.

Frames : Elles font partie du corps de la page et elles ont pour but de diviser une page en faisant différents cadres dans le but de faciliter la navigation des internautes sur un site. Il est important de savoir que les frames sont fortement déconseillés lorsqu’on a recours au référencement naturel puisque cela va compliquer l’indexation par les moteurs de recherche.

Balises META : Ce sont des requêtes HTML qui contiennent des informations concernant le contenu de la page. En renseignant ces balises, vous enverrez des informations aux moteurs de recherche concernant votre site Internet. Cela va donc impacter directement votre référencement. Ce mode opératoire ayant subi une utilisation abusive sur certains sites Web, ces informations sont donc de moins en moins prises en compte pour l’indexation des pages. C’est ainsi que Google a officiellement délaissé la balise méta « Keywords », il a cependant conservé les méta description et les méta robots.

META description : Elle va vous permettre de rentrer la description de votre page sous la forme d’une balise HTML qui sera présente sur l’entête de votre page Web. Il s’agit d’un texte invisible pour les visiteurs puisqu’elle sera uniquement présente dans les SERP. Cette description doit comporter une vingtaine de mots au maximum. Elle va principalement être utilisée par des robots pour inciter le visiteur à cliquer sur le lien de votre site : il s’agit du fameux texte qui apparaît en dessous du lien de la page du moteur de recherche.

SERP: Search Engine Result Page : Il s’agit simplement d’une mention pour dire : la page des résultats de moteurs de recherche.

META robots : C’est elle qui va vous donner la possibilité de « communiquer » directement avec les robots des moteurs de recherche. Vous allez donc pouvoir leur indiquer si vous souhaitez, ou non que votre page Web soit indexée. Dans le cas où ces balises ne sont pas renseignées, le robot va considérer qu’il a la possibilité d’indexer la page et de suivre les liens qu’elle contient.

Voici les valeurs que vous allez pouvoir renseigner dans les balises robots :

– index, follow : c’est lorsque les balises robots ne sont pas renseignées dans ce cas, la page Web sera automatiquement indexée par le moteur de recherche.

-noindex, follow : par cette valeur, vous informez le robot du moteur de recherche que la page ne doit pas être indexée.

– index, nofollow : le crawler va pouvoir indexer la page, mais il ne pourra pas suivre les liens qu’elle contient.

– noindex, nofollow : cette valeur indique aux robots qu’il ne doit pas indexer la page Web et qu’il ne doit pas non plus suivre les liens présents sur celle-ci.

Lorsque vous vous adressez aux crawler, vous allez avoir la possibilité de contacter directement le robot d’exploration de Google pour cela, vous avez simplement à remplacer le nom du robot par Googlebot.

Vous avez également la possibilité de bloquer l’indexation de certaines pages en utilisant le robots.txt. Cela va permettre aux crawler de ne pas s’attarder sur ces pages et de se concentrer sur les pages que vous souhaitez faire indexer par les moteurs de recherche.

Crawler : Également appelé web spider, c’est ainsi que nous appelons les robots des moteurs de recherche qui viennent régulièrement parcourir le contenu de vos pages. Leur navigation sur la toile est faite sur la base simple du suivi de page, de lien en lien. Les robots d’indexation vont donc explorer automatiquement le Web et collecter toutes les ressources qui y sont présentes, qu’il s’agisse de pages Web, d’images, de vidéos ou de tout autre document, dans le but de permettre au moteur de recherche de les indexer.

Liens internes : L’insertion de liens internes dans les pages de votre site Internet va permettre aux robots d’indexation de s’attarder plus précisément sur la totalité du contenu de votre site Web. Cela va donc optimiser la visibilité de toutes vos pages. C’est pour cette raison que nous vous conseillons fortement d’intégrer à votre site Internet une page « plan du site » qui recensera toutes les pages de votre site Internet avec des liens vers chacune de vos pages. Les liens sont posés sur ce qu’on appelle des ancres.

Ancre : Une ancre est le mot ou l’ensemble de mots sur lequel est posé le lien. Il permet généralement au moteur de recherche de mettre l’accent sur l’association site/expression clé.
C’est une des démarches de fond du référencement naturel.

NetLinking : C’est l’action de mettre en place des liens externes qui pointent vers votre site Web ainsi, cela augmentera la notoriété et le trafic de votre site. Ces liens externes vont également agir directement sur le référencement de votre site puisque les moteurs de recherche vont tenir compte de cet élément pour définir le niveau de pertinence de votre site.

Back-link (ou « BL », « backlink ») : Ce sont les liens, plus exactement les liens retour. C’est une pratique simple qui consiste à placer un lien (un backlink) sur un site partenaire, avec une ancre qui pointe vers votre site. On appelle « lien » ou « backlink » le fait de présenter un élément cliquable qui permet depuis un site de se rendre sur un autre. C’est l’une des plus vieilles pratiques pour séduire les moteurs de recherche, et cela marche toujours, attention toutefois à ne pas trop en faire (depuis l’arrivée de Penguin).

Liens Nofollow : C’est un attribut qui va vous permettre d’indiquer aux moteurs de recherche que vous ne souhaitez pas que certains liens soient pris en compte dans l’indexation de vos pages. Il est souvent utilisé et recommandé pour les liens payants ainsi que pour les liens ajoutés directement par des utilisateurs lors de dépôt de commentaires ou sur des forums.

Attributs ALT des images : Il est important de savoir que les images présentes sur votre site Internet ne seront pas prises en compte par les moteurs de recherche lors de l’indexation de vos pages Web, mais vous avez la possibilité de rendre ces images visibles par les crawler en insérant un attribut ALT. Cela va donc vous permettre de décrire le contenu de l’image présente sur votre site. Cet attribut est également utilisé par les non-voyants qui utilisent le braille pour surfer sur Internet.

Le crawl : C’est la première action qui va marquer le début de votre référencement. Les robots des moteurs de recherche partent à la recherche de nouvelles pages Web à indexer. Ce crawler va être en quelque sorte considéré comme un visiteur virtuel qui va explorer en profondeur les pages des sites Internet. Il est possible d’identifier ses robots d’exploration par l’en tête HTTP User – Agent qu’ils envoient.

Par exemple, l’User -Agent de Google va être : GoogleBot ou Mediapartners-Google ou Googlebot-Image ou encore Googlebot-Mobile. Celui de Yahoo sera Slurp, celui de voila/orange sera VoilaBot etc.

Il est donc primordial de bien relier les pages de votre site entre elles grâce à des liens, ce qui va ainsi permettre aux crawler d’accéder à toutes vos pages en un temps record.

Pour configurer au mieux l’indexation de votre site, plusieurs méthodes s’offrent à vous :

– intégrer un robots.txt

– jouer sur la vitesse de chargement des pages

– créer un fichier Sitemap

Robots.txt : Ce fichier va vous permettre de bloquer certaines pages de votre site Internet, il s’agit souvent des pages qui sont inutiles pour le référencement de votre site. En bloquant ces pages à l’aide de robots.txt, cela va permettre aux robots d’indexation de concentrer leur attention sur les meilleures pages de votre site. Il est impératif de bloquer les pages qui ont peu d’intérêt pour les internautes ainsi que les pages en doublon.

Vitesse de chargement : Plus les pages de votre site seront chargées rapidement, plus l’utilisateur sera satisfait et cela va également rentrer en compte pour le positionnement de votre site, car une bonne vitesse de chargement vous aidera à augmenter votre SEO sur les moteurs de recherche.

Sitemap : Ce moyen va vous permettre de présenter le plan de votre site en y insérant la liste de toutes les pages qui figurent sur le site et qui doivent être indexées par les moteurs de recherche. Le but est de faciliter le travail des crawler afin qu’ils puissent indexer plus rapidement et plus efficacement les pages de votre site.

SiteMaps a été créé à l’initiative de Google pour améliorer l’indexation des pages Web dans les moteurs de recherche. En positionnant un fichier SiteMaps sur votre site cela va permettre notamment à Google de prendre connaissance des nouvelles pages à explorer. Il vient principalement en complément de l’indexation habituelle, il n’est donc pas indispensable, mais nous vous conseillons fortement de l’utiliser pour un meilleur référencement. Pour cela, il vous suffit de générer ce fichier sur votre site Internet et de le mettre à jour à chaque fois que vous modifiez ou que vous ajoutez une page à votre site.

Black Hat : Par opposition au White Hat, c’est ainsi que nous mentionnons les pratiques qui sont défendues par les règles de bon usage des moteurs de recherche. Le plus souvent il s’agit de méthodes automatisées et simples à reproduire. C’est une pratique à laquelle les professionnels sérieux n’adhèrent pas, car les résultats ne sont pas pérennes. En somme, cela marche un temps, puis le moteur finit par comprendre la supercherie. Si c’est une pratique qui peut encore fonctionner, il est nécessaire de garder à l’esprit que les prochaines mises à jour des moteurs de recherche permettront de détecter les pratiques les plus grossières, comme les moins probables. Il convient donc de ne pas utiliser cette méthode.

Ceci étant dit, lorsque vous contractez une prestation en référencement naturel, et que le prestataire que vous avez choisi vous propose un référencement gratuit jusqu’à obtention de résultats, ou un service à un tarif inférieur à cinq cents euros à l’année, il convient de se poser les bonnes questions (pour quarante euros par mois, est-il possible ou même juste probable qu’une agence en référencement naturel vous consacre cinq à dix heures de travail mensuel pour parvenir au score attendu ?)
Comme pour tous les produits et services au monde, méfiez-vous de la gratuité ou des solutions « miracle » à très bon marché.

White Hat : Contrairement aux Black Hat, ce terme correspond aux référenceurs de qualité qui utilisent des méthodes de SEO en accord avec les principes des moteurs de recherche. Le but de cette main-d’œuvre est d’obtenir un référencement dans le temps tout en respectant la procédure en vigueur. Pour cela, un audit de votre site est obligatoire.

Audit SEO : Étude qui consiste à faire l’état des lieux d’un site autour de son référencement. C’est une étape indispensable que l’agence de référencement doit faire avant d’être en mesure de proposer un devis. Cette analyse va permettre de révéler les différentes expressions déjà positionnées dans l’index de Google, elle va également permettre d’y associer des volumes de recherches mensuels. Ces éléments sont déterminants pour la stratégie SEO que vous allez mettre en place. Souvent limitée par le budget client, l’agence s’efforcera de proposer des solutions dans le sens de vos attentes. L’audit est souvent facturé entre 600 et 1200 €. De nombreuses agences (et nous en faisons partie) offrent ce travail dans le cadre de la prestation qui est mise en place.

Le professionnel qui va se charger de votre référencement va également vérifier votre présence sur les réseaux sociaux, et aussi si votre site dispose d’une application pour les mobiles.

Réseaux sociaux : De nombreux réseaux sociaux ont vu le jour ces dernières années et, pour le référencement de votre site Internet, il est impératif que vous soyez présent sur ces différents réseaux. Facebook, Tweeter ou encore Linkedin, cela vous dit forcément quelque chose, que vous soyez adepte ou non de ce nouveau moyen de communication, sachez que les moteurs de recherche vont prendre en compte votre présence sur ces réseaux pour déterminer la qualité de votre site Internet. En d’autres termes, le partage social va avoir un impact positif sur le positionnement de votre site.

Un site mobile : Aujourd’hui, de plus en plus de visiteurs consultent Internet depuis leur téléphone portable c’est pour cette raison qu’il est fortement conseillé de disposer d’un site conçu en responsive design ce qui va permettre à la page indexée pour les ordinateurs de bureau de l’être également pour les mobiles. La seule chose qui changera sera l’affichage en fonction du support avec lequel le visiteur se rend sur votre site Internet.

Si votre site est déjà créé et qu’il n’a pas été conçu en responsive design, vous avez la possibilité de mettre votre site Web mobile sur un nom de domaine ou un sous domaine différent, il vous suffira de rediriger automatiquement les visiteurs vers le site mobile.

Responsive Design : Il s’agit tout simplement d’un outil qui va permettre un site Internet d’être également consulté sur un autre support d’un simple ordinateur de bureau. Le site Web va donc s’adapter au terminal de lecture.