Comment fonctionne Google ?

Le moteur de recherche est devenu un outil incontournable du Web. Ceci est vrai tant pour les millions d’internautes à la recherche d’informations que pour les web-marketeurs désireux de faire fructifier leurs affaires. Mais pour maîtriser l’outil, il est indispensable de connaître son fonctionnement. Alors, comment fonctionne Google ?

Comment fonctionne Google ou la mécanique d’un moteur de recherche

Le rôle de Google est divisé en plusieurs tâches : collecter, indexer et classer le Web. C’est un travail titanesque qui demande d’énormes ressources.

Collecter les données grâce au crawl

Pour un moteur de recherche, le crawl consiste à parcourir tout le Web pour identifier les pages qui y sont publiées. Pour ce faire, il suit simplement les liens qu’il trouve sur chaque page qu’il parcoure. Si la méthode est assez simple, elle devient vite astronomiquement coûteuse en ressources.

La rapidité sied à Google

A ce jour, Google connaît 30.000 milliards de pages (source : Search Optimization de Lionel Miraton). Pour se maintenir à jour Google est donc censé les parcourir le plus souvent possible. Même pour cette société très riche, ce n’est pas possible. Alors, autant dire que Google ne parcoure pas les pages qu’il juge trop lentes. C’est juste une question économique.

Par contre, il peut crawler plusieurs fois par jour un site jugé pertinent et rapide.

Certains pensent que l’algorithme, très secret et très compliqué, de Google intègre le temps de réponse du serveur. Une étude de la société Zoompf montre une corrélation évidente entre positionnement dans Google et rapidité (cf l’étude en question).

La rapidité sied aussi aux utilisateurs

La rapidité d’une page n’est pas uniquement recherchée pour plaire à Google (même si c’est indispensable pour qu’une page soit référencée). De nombreuses études montrent également une corrélation entre chiffre d’affaires généré et rapidité du site.

Google milite donc pour un Web rapide et pertinent.

Proposez un site rapide et pertinent

Qu’est-ce qu’une page rapide ? Pour simplifier, c’est une page qui présente un TTFB (Time To First Byte) inférieur à 200ms (vérifier le TTFB de votre site ici).

Qu’est-ce qu’une page pertinente ? C’est une page qui présente des KPI satisfaisants (vérifier votre compte Analytics).

Pensez à la profondeur de vos pages

Nous l’avons vu, Google est pressé. Il est donc indispensable de positionner vos pages dans la navigation de votre site de telle manière à ce qu’elles soient facilement accessibles. Une page profonde (au-delà de trois clics de la page d’accueil) aura plus de difficulté à être indexée qu’une page plus proche.

Indexer les données recueillies

La seconde étape consiste à « ranger » les données « crawlées ». La structure de la page à indexer est étudiée et ses caractéristiques sauvegardées dans une base de données en vue des études linguistiques et lexicales ultérieures. Cette étape est appelée l’indexation.

Une page peut être correctement crawlée mais non-indexée. Il existe plusieurs raisons pour que cela soit le cas :

  • Page au contenu trop faible ou sans intérêt;
  • Page au contenu dupliqué;
  • Page mal structurée (balises manquantes ou incomplètes);
  • Page interdite par le robot.txt.

Un audit Web vous permettra de vérifier que l’indexation des pages de votre site peut se faire correctement (cf notre audit Web).

Classer les données recueillies

Étape ultime, le classement est la plus visible du process. Ce classement est fait « à la demande » en fonction des requêtes entrées par les internautes dans le moteur. Pour proposer des réponses pertinentes, Google se base sur l’intention de l’internaute et le contenu de la page, son parcours sur le Web, ses actions sur les réseaux sociaux, et plusieurs autres critères. Il se base également sur la notoriété du nom de domaine sur le Web. On dit qu’il existe plus de 200 critères dans l’algorithme de Google !

NOTE : Vous remarquerez que Google n’indexe, ne référence et ne classe que des pages, pas des sites.

La lutte entre Google et les « black hat »

Google est une machine. A ce titre, elle peut être prévisible. Ce constat a conduit, et conduit encore, de nombreux webmasters à essayer de duper le moteur de recherche pour obtenir un meilleur classement de leurs sites. Ces webmasters sont appelés « black hat » (alors que les « white hat » respectent à la lettre les consignes de Google, et les « grey hat » flirtent avec la limite en la dépassant de temps en temps).

Pour contrecarrer ces « black hat », Google a mis en place des filtres qui agissent au moment du classement. Les plus connus sont PANDA et PENGUIN.

Google simplifie le SEO

Les spécialistes du SEO ne font plus la Loi. Oubliez les pseudo-référenceurs qui, à grand coups de certifications bidons, vous diront qu’ils savent ce qu’il faut faire pour que vos pages soient positionnées en première place. Dorénavant, pour obtenir un référencement naturel de qualité, il suffit de respecter la qualité Web et de proposer régulièrement des contenus pertinents et attractifs aux internautes. Même si ce n’est pas aussi simple à dire qu’à faire…

Newsletter
Secrets de WebmastersWeb-AcadémieAudit Web gratuit