Google entame sa rentrée en grande pompe, et avec fracas. En effet, de nombreuses mises à jour mettent en émois le monde du SEO, et le mutisme de la firme américaine ne fait qu’alimenter les hypothèses. Simple mise à jour ? Lancement de Penguin ? Mise en avant des résultats géo-localisés ? Aucun utilisateur ne sait vraiment ; mais Google prépare quelque chose, et notre agence de référencement naturel est bien sûr sur le qui-vive 😉
Des mises à jour Google de plus en plus importantes
Déjà le 27 avril, Google avait modifié sa méthode de calcul des clics et impressions dans la search console. Mais il s’agissait alors d’une mise à jour minime relative à une comptabilisation plus distincte des recherches mobiles.
Les mises à jour concernant l’expérience utilisateur et valorisant les contenus utiles sont de plus en plus fréquentes et ont de plus en plus d’impacts. Les positionnements mots clefs n’ont jamais été aussi précaires et l’accompagnement par une agence spécialisée SEO n’a jamais été aussi pertinente. Il est en effet fort probable qu’il faille faire face à l’imprévu sous peu.
Disparition du suivi des recherches dans Google Search Console
A partir du 31 août 2016, la Search Console n’affiche plus de donnée dans son analyse de la recherche. Une ligne « mise à jour » signale explicitement cette scission. S’agit-il d’un bug ou d’une action intentionnelle ? Est-ce que Search Console dispose toujours de la donnée (ce ne serait alors qu’une question d’affichage …) ?
Il semblerait en tout cas que la donnée ne soit pas non plus disponible dans l’API Search Console …
Edit du 07/09/2016 :La Search console affiche ce jour les infos du 01/09. Les informations s'afficheraient-elles désormais avec un décalage d'une semaine ? Est-ce temporaire ?
Edit du 08/09/2016 :Aujourd'hui, les données du 2 et du 3 remontent. Du coup on oublie la donnée à 7 jours.Je pense davantage à un retour à la normal prochainement
Qu’est-ce que cela implique pour vos rapports SEO ?
Pour l’instant, le suivi des requêtes générant le trafic est toujours disponible dans nos logiciels. Il n’y a donc pas de disparition de la donnée. La plupart des logiciels scrapent en effet eux-même les pages de résultats de Google, afin justement de ne pas être à la merci de son API. Pour les autres données (clic, ctr, impressions) ces logiciels se basent sur Serach Console mais aussi d'autres outils pour construire une estimation des données. Du coup, même sans donnée depuis la Console, la donnée est construite par estimation. Des différences d'algorithmes entre chaque logiciel expliquent d'ailleurs les disparités que l'on peut constater dans les résultats.
S’il y a observation de variations inhabituelles dans vos visites ou vos positions, il faut pour l’instant et avant tout explorer la piste des variations des SERPs (affichages dans Google).
N’oublions pas cependant de vérifier (également) les raisons « habituelles » de déclassement : facteurs internes (modifications techniques ou lexicales) et facteurs externes (perte de backlinks, nouveau concurrent ou concurrent en progression). S’il faut effectivement regarder du côté des mises à jour de Google, il est donc également important de rester vigilant sur les fondements du SEO.