Algorithmes Google

Fait essentiel à comprendre : il n'existe pas un mais plusieurs algorithmes Google qui, au gré des mises à jour, viennent considérablement perturber les positions de vos mots clés. Google créée de nouveaux algorithmes et en modifie d'autres chaque jour. Vous ne pouvez pas être au courant de ces perpétuelles modifications. Vous devez faire appel aux services d'une agence SEO : NET CONSULTING SERVICES est en veille permanente et vous accompagnera tout au long de ce parcours complexe.
LE B.A BA DES ALGORITHMES GOOGLE

EXIGENCE GOOGLE N°1


Depuis la mise à jour "Mobile First", votre site doit être absolument compatible mobile.
Pour vérifier la compatibilité de votre site, utilisez cet outil test mobile
Un site qui ne sera pas compatible mobile risque à court terme un "Webxit" car Google sait maintenant que la plupart des requêtes sont exécutées à partir d'un mobile ou une tablette.

EXIGENCE GOOGLE N°2


Pour faciliter la navigation des internautes, que ce soit sur ordinateur, sur mobile ou sur tablette, la navigation doit être rapide.
Pour vérifier la vitesse moyenne de téléchargement de vos pages, utilisez cet outil test vitesse.
La vitesse d'affichage des pages est un élément essentiel : plus vos pages sont rapides, plus l'internaute navigue, plus il découvre !

EXIGENCE GOOGLE N°3


Depuis la mise à jour "Google Fred" en 2017, votre site doit être optimisé.
Par optimisé il faut entendre des sites bien structurés, dont l'expérience utilisateur est fluide avec des arborescences courtes, sans publicité. Google sait aujourd'hui analyser le parcours d'un visiteur sur votre site. Des sorties trop rapides traduiront un contenu de mauvaise qualité, une satisfaction utilisateur non atteinte et incitera de fait au Webxit.

EXIGENCE GOOGLE N°4


Dans un passé pas si lointain que cela, il était possible, presque facile, de bien placer son site avec des méthodes de "sur optimisation". Achat de backlinks, surabondance de mots clé... Ces techniques fonctionnaient. 
Depuis Avril 2012 et la mise à jour Google Pingouin, ces méthodes sont terriblement sanctionnées : déclassement immédiat. Webxit 100% garanti ! Prenez vraiment garde.

LES PRINCIPALES MISES A JOUR GOOGLE


Dans le passé, les règles de base SEO ont fréquemment été chamboulées par les différentes mises à jour de l’algorithme Google. Évidemment, d’autres changements sont à prévoir dans un avenir très rapproché et plusieurs professionnels en référencement font déjà leurs projections sur les nouveaux critères à respecter pour atteindre les prestigieuses premières positions dans le SERP.

Demandez à n’importe quel historien, l’une des meilleures approches pour prévoir les évènements futurs est de regarder en arrière. Les changements déjà effectués par le géant des moteurs de recherches en révèlent beaucoup sur ses priorités. Voilà pourquoi nous vous proposons un petit retour en arrière sur les plus importantes mises à jour de Google.

Panda : Le contenu

Instauré en février 2011, Panda a réécrit complètement la façon de faire du référencement. À partir de ce jour, il était là pour assurer que seulement du contenu de qualité serait affiché sur le moteur de recherche. 12 % des requêtes de recherche ont été affectées par cette mise à jour majeure.

Depuis son implantation, l’algorithme sert de filtre pour empêcher le contenu de basse qualité, les «spams» et tout ce qui est ajouté sans donner de valeur à un site internet. Par exemple, tout contenu dupliqué, plagié ou rempli de fautes d’orthographe se retrouvait extrêmement pénalisé. Comme Google a intégré Panda dans ses mises à jour en continu, de nombreux critères se sont ajoutés au fil du temps et aucune liste exhaustive n’existe.

Penguin : les liens externes

Une fois le contenu corrigé, c’est en avril 2012 que la perturbation suivante est arrivée. En effet, l’algorithme Penguin faisait son apparition. Touchant 2,3 % des requêtes, le but de cette nouvelle mise à jour était de décourager les pratiques non conformes en matière de SEO. Ainsi, Google a commencé à pénaliser sévèrement le «netlinking» et les échanges de liens. De plus, l’accès à des pages différentes pour un robot et pour un humain a commencé à être détecté et pris en compte au niveau du référencement.

Le message de Google était clair, pour être présent dans son SERP, il fallait jouer selon ses règles. Penguin est donc devenu la deuxième police du moteur de recherche, empêchant quiconque d’essayer de contourner les critères instaurés. Il faut simplement s’assurer de vérifier la qualité des sites d’où proviennent vos liens externes d’éliminer ceux qui pourraient vous porter préjudice.

Pirate : Le copyright

Instauré en octobre 2014, la mission de l’algorithme Pirate était simple, s’assurer que les sites référencés ne contenaient rien de piraté. Ce changement a particulièrement affecté les sites de téléchargement frauduleux. Pour éviter d’être pénalisé, il suffit de ne publier que du matériel dont vous êtes le propriétaire, libre de droits ou dont vous avez l’accord de la personne qui possède le copyright.

Hummingbird: le sens d’une recherche

Encore une fois, le géant Google a complètement changé sa façon de référencer les sites internet en implantant Hummingbird en août 2013. À partir de cette mise à jour, une requête sur un moteur de recherche devint bien plus qu’une série de mots-clés. En effet, Google s’est donné comme mission de comprendre l’intention des utilisateurs derrière leur recherche. De cette façon, il s’assurerait de toujours livrer le contenu le plus pertinent possible à ses utilisateurs. De plus, il implantait également une nouvelle structure au SERP, y incorporant des fonctionnalités supplémentaires et des images.

Cette fois-ci, pour rester dans la course et réussir à obtenir des positions de choix dans la page des résultats, il faut connaître votre client. Il vous faut donc trouver les mots-clés exacts qu’il utilise. L’utilisation de la longue traine devient également une tactique très payante. La formulation de mots-clés sonne désormais moins mécanique, plus humaine.

Pigeon : le référencement local

Avec l’arrivée des appareils mobiles, la géolocalisation a fait son apparition. Évidemment, cela entrainait des opportunités incroyables. En juillet 2014, Google fit une mise à jour dont le but était de prendre en considération l’emplacement géographique de l’utilisateur pour lui offrir des résultats encore plus pertinents. Donc, un utilisateur à Paris qui recherche «meilleur restaurant thaï», se fera proposer uniquement des restaurants thaïs situés à Paris même si celui-ci n’a spécifié aucun critère géographique.

Fred : la qualité

Mise en place en Mars 2017, la mise à jour Fred a causé des variations considérables sur le SERP Google. Les sites avec un faible contenu et un abus de publicités ont été déclassés avec violence. 


Share by: