Le référencement naturel

Pour être visible sur Internet, un site Web doit être connu des principaux moteurs de recherche, Google en tête. Un site qui est connu des moteurs de recherche est dit « référencé ». Il existe deux types de référencement : le référencement payant basé sur un système de publications d’annonces achetées aux moteur de recherche (Adwords, Bing Ads) et le référencement naturel qui est gratuit.

Le référencement naturel met en oeuvre des algorithmes propres à chacun des moteurs de recherche qui décident du classement des sites lors de l’affichage des pages de résultats qui font suite à une demande formulée par un internaute (on dit requête).

Pour améliorer ses chances d’apparaître aux meilleures places (première page de résultats, le plus haut possible) et ainsi de capter un maximum de visiteurs (on parle de trafic naturel), un site doit donc correspondre aux critères des algorithmes de différents moteurs de recherche. Il est donc nécessaire de concevoir des sites qui soient en parfait accords avec les préconisations des moteurs de recherche. On parle alors de SEO pour Search Engine Optimization.

Pourquoi le référencement naturel est-il indispensable ?

Que ce soit en BtoC ou en BtoB, nous sommes plus de 80% à commencer notre recherche d’un service ou d’un produit en posant la question à un moteur de recherche. En France, le moteur de recherche le plus utilisé est Google, suivi de près par YouTube. Publier un site Web qui n’est pas correctement référencé, c’est donc se priver de cette manne innombrable de prospects.

De plus, la qualité du trafic issu du référencement naturel est telle – si le SEO est correctement fait – que la majorité des visiteurs qui le compose est très qualifiée. Ces visiteurs sont donc des prospects potentiels qui peuvent être transformés en client rapidement.

Attention, ce serait une erreur de penser pouvoir compenser les défaillances de son site en termes de référencement naturel par du référencement payant : près de 70% des internautes ne cliquent jamais sur les annonces publicitaires. Un tel choix conduirait inévitablement à réduire le nombre de prospects qui pourraient être atteints.

Comment fonctionnent les moteurs de recherche ?

Pour être en mesure d’optimiser un site Web pour qu’il soit bien référencé, il est important de comprendre le fonctionnement des moteurs de recherche. Nous sommes dans le monde numérique, tout est donc construit sur des ordinateurs et des programmes informatiques. Un moteur de recherche n’est rien d’autre qu’un gros ordinateur équipé d’un programme qui réalise quatre opérations :

Le crawling

D’abord, il s’agit pour le moteur de recherche de connaître toutes les adresses (url) de toutes les pages Web publiées sur Internet en essayant d’en parcourir le plus possible. Pour ce faire, les programmes du moteur (on parle alors de bots, GoogleBot étant le bot de Google) doivent suivre tous les liens hypertextes qu’ils rencontrent sur chacune des pages parcourues lors de leur promenade numérique.

On imagine la masse d’informations récoltées à ce stade. Et pourtant, malgré tout sa puissance, Google n’aurait référencé que moins de 20% du Web ! La majorité des pages Web non-référencées composent ce qu’on appelle le Dark Web ou le Web profond. Mais de nombreuses pages non-référencées ne le sont pas par choix, mais par manque de connaissance de leur auteur.

En janvier 2017, Google avait référencé plus de 300.000 milliards de pages. Pour y parvenir, les Googlebots parcourent plus de 20 milliards de pages par jour. Autant dire que les sites lents ou mal structurés sont soigneusement ignorés par ces robots très pressés.

Une petite remarque : pour être connu des moteurs de recherche un site doit être bien structuré, rapide et posséder au moins un lien entrant, c’est à dire un lien hypertexte avec son adresse Web (url) sur un autre site lui-même référencé. Si un site est mal fait, lent et n’a aucun lien entrant, il ne risque pas d’être parcouru par Google et n’a donc aucune chance d’être référencé. Et on comprend bien que Google ne peut afficher que ce qu’il connaît !

Voir cette vidéo sur le sujet : les 4 étapes du référencement, le crawl.

L’indexation

La deuxième opération exécutée par les moteurs de recherche est l’indexation. Il s’agit, à ce stade, de conserver toutes les adresses repérées. Une base de données gigantesque est donc constituée en vue d’un traitement ultérieur.

Mais les urls ne sont pas les seules informations à y être stockées. On pense – tout ça est tenu secret par les moteurs de recherche – que différentes données y sont également conservées comme : la date de l’indexation, le poids de la page, le nombre d’hyperliens, le nombre de mots utiles, etc…

Voir cette vidéo sur le sujet : les 4 étapes du référencement, l’indexation.

Le classement

C’est le cœur du système des moteurs de recherche. Chacun d’entre eux possède son algorithme – jalousement gardé secret – pour classer et afficher les pages en fonction de leur pertinence lorsqu’une requête est entrée par un internaute.

Il faut d’abord bien comprendre le business-model d’un moteur comme Google. 92% du C.A. de Google est généré par sa régie publicitaire dont une grosse part pour Adwords (soit plus de 80Md$; Oui, c’est énorme !). Et pour que les internautes continuent à cliquer sur les annonces payantes, il est indispensable que les internautes utilisent Google. Et pour que les internautes continuent à utiliser Google, ils doivent trouver facilement ce qu’ils recherchent : des réponses pertinentes et rapides à leurs questions. Et des questions, il y en a beaucoup : plus de 2.000 milliards par an, soit environ 63.000 par seconde. Si les données concernant Google vous intéressent, je vous invite à lire le très bon article d’Olivier DUFFEZ sur le sujet.

Bref, vous comprenez pourquoi les moteurs sont très attentifs à la qualité et à la pertinence des pages Web. Pour eux, proposer une page non-pertinente à la requête d’un internaute est mortel.

Les algorithmes des moteurs ont donc pour mission d’afficher, en temps réel, la page la plus pertinente pour une requête donnée. Ces algorithmes sont secrets, mais avec l’expérience, le partage d’informations entre professionnels et de nombreux essais se rapprochant du retro-engineering, on peut imaginer avec une assez bonne précision ce qu’il faut faire pour bien classer une page (car Google ne classe pas des sites, mais des pages).

Il y a évidemment une grosse part d’analyse lexicale (thème abordé par la page), une partie d’analyse de la notoriété (liens entrants) et plus de 200 autres critères qui dirigent au classement finale d’une page. Le SEO est l’ensemble des actions destinées à répondre au mieux aux critères, plus ou moins connus, des algorithmes de classement.

Voir cette vidéo sur le sujet : les 4 étapes du référencement, le classement.

La pertinence

Parmi tous les critères utilisés par les algorithmes pour classer une page Web, il en est un qui pose beaucoup plus de problème que les autres : c’est la compréhension du texte utile. De quoi parle une page ? Il ne s’agit pas juste d’analyser une liste de mots-clés. Par exemple comment différencier la « couche pour bébé » de la « couche de peinture » ou de la « couche mince » lorsqu’un internaute entre « couche » comme requête ?

Après avoir tenté la piste du 100% intelligence artificielle, Google s’est vite rendu compte que ce n’était pas si simple. Les ingénieurs de Google ont donc eu une excellente idée : si les algorithmes ne pouvaient être suffisamment fiables dans leurs analyses de textes pour en mesurer la pertinence, il suffisait de demander aux internautes. Ainsi est né CHROME (et pour quelques autres raisons).

En effet, lorsqu’un internaute entre une requête dans un moteur, il est animé par une intention de recherche. Et c’est cette intention qui intéresse Google. Et pour l’identifier, c’est facile : pour une requête donnée, envoyez plusieurs réponses très différentes et analysez la réaction des internautes en mesurant les taux de rebonds et temps de visite pour chaque réponse proposée. Le groupe constitué par les réponse dont les taux de rebonds seront les plus faibles et les temps de visite les plus hauts a de fortes chances de répondre à l’intention initiale. Il ne reste plus qu’à systématiser ce processus. Et c’est un des rôles de CHROME (et probablement d’ANALYTICS) que de mesurer ce comportement.

Faîtes l’expérience en entrant « couche » et « carotte » dans Google. Vous y découvrirez les intentions des internautes qui utilisent ces requêtes.

Cette analyse comportementale n’est pas, bien entendu, le seul critère de mesure de la pertinence, mais elle en constitue une part importante.

Voir la vidéo sur le sujet : les 4 étapes du référencement, la pertinence.

Comment optimiser son site Web pour obtenir plus de visiteurs ?

Il faut répondre correctement aux critères de Google. Simplement, on peut classer ces critères en deux groupes : on-site (sur le site) et off-site (en dehors du site).

Commençons par le off-site (off-page en fait) :

  • obtenir des liens entrants de qualité
  • avoir une bonne notoriété sur les réseaux sociaux
  • avoir une bonne notoriété IRL (In Real Life – dans la vraie vie)
  • faire mieux que les concurrents

Finissons avec le on-site (on-page) :

  • publier un site bien structuré
  • publier le site sur un hébergement rapide
  • travailler la pertinence des textes
  • bien baliser les pages
  • construire un netlinking interne pertinent
  • diversifier la nature des contenus (textes, photos, vidéos, etc…)

Pour en savoir plus : téléchargez ce document publié par Google.

Pas certain des performances SEO de votre site > demandez-nous un audit !

Pourquoi analyser son trafic est-il indispensable ?

La toute première raison est qu’il est toujours indispensable de mesurer le retour sur investissement. Et je vois encore beaucoup trop d’entreprises qui publient un site Web, souvent très cher, sans se soucier de ce qu’il leur rapporte.

Analyser le trafic d’un site permet de mesurer l’efficacité des actions entreprises et, surtout, de l’optimiser. Pour ce faire, il est nécessaire de définir des indicateurs-clés (KPI) et de les suivres régulièrement. Ces indicateurs peuvent être :

  • nombre de visiteurs / jour
  • nombre de pages vues / visiteur
  • taux de rebonds (Qu’est-ce que le taux de rebond)
  • durée de visite
  • taux d’engagement
  • taux de transformation
  • leads générés
  • chiffre d’affaires réalisé
  • etc..

Pour en savoir plus : les statistiques et les mesures de performances.

Le référencement naturel, c’est d’abord du SEO

En conclusion, mais vous l’avez compris, je dirai que le référencement naturel, c’est d’abord entreprendre des actions d’optimisation, donc de SEO. Et comme Google et les autres moteurs de recherche modifient sans cesse leurs algorithmes, faire du SEO efficace est difficile et chronophage. Aussi, si vous n’avez pas l’âme d’un expert dans ce domaine, choisissez un bon professionnel et confiez-lui votre SEO. Faute de quoi, oubliez le référencement naturel : l’époque où un site se classait tout seul en haut des pages de résultats est bel et bien révolue, et depuis plusieurs années !

Newsletter
Secrets de WebmastersWeb-AcadémieAudit Web gratuit