Le 12 février, une équipe de chercheurs de chez Google a publié un article sur arxiv.org qui a failli passer inaperçu.
Ces chercheurs ont développé un algorithme capable de donner un poids aux pages non plus grâce au nombre de liens externes qui pointent vers le domaine. Mais grâce à la véracité des informations présentes sur cette même page.
C’est un bouleversement dans l’univers du seo, cela induit que les sites ne seront plus ordonnés par popularité, mais par véracité. Ce qui veut dire que les sites les plus pertinents en termes d’information seront les mieux rankés.
D’où leur vient cette idée ?
Cette nouveauté est le fruit d’un constat simple, certains sites ne vérifient jamais leurs sources ou leurs informations et sont pourtant très vite relayés et donc bien positionnés. C’est donc dans le cadre de sa lutte contre les Trolls que Google cherche à vérifier les informations que vous proposez. L’on en déduit tout de suite que doctissimo va avoir du souci à se faire.
Le fonctionnement :
Comment est-ce que cela fonctionne ? (ou devrais-je dire fonctionnera, car c’est encore à l’état de développement), lors du passage d’un bot sur une page il comptera le nombre d’informations vraies ou fausses sur votre page. De cette vérification il augmente ou diminue votre « Knowledge-Based Trust score » (KBT).
Comment évaluer la véracité de vos informations ?
La méthode est assez simple, car elle est déjà utilisée dans d’autres processus de construction de « base de savoir ». Une fois les « facts » extraits il les compare à une base de données de plus de 2 800 000 000 (2.8 billions). Ces chercheurs ont fait le test sur 119 000 000 pages web sur 5 600 000 sites et leurs vérifications manuelles ont confirmé les résultats de leur algorithme.
Cette base de données n’est rien d’autre que le Knowledge Vault, une base de savoir construit par Google à partir de données recueilli sur le web. Si vos informations correspondent à ce que le Knowledge vault sait, votre KBT augmente (et par la même votre positionnement) si votre page contient des informations en contradiction avec le knowledge vault votre KBT et votre positionnement descendent.
Et si Google n’est pas capable de vérifier ?
Son fonctionnement est assez simple, si votre page contient un certain quota d’informations confirmées elle est considérée comme vérace. Si votre page ne contient pas assez d’informations pouvant être vérifiées alors Google estime la probabilité de la véracité de vos informations en fonction du KBT de vos autres pages.
Les limites du KBT :
Ce qui nous emmène aux limites de cette méthode, imaginons qu’un site d’informations pertinentes, avec un grand nombre de pages vérifiées et donc un bon KBT, publie une information nouvelle ET erronée. Google ne sera pas en mesure de vérifier cette information (car elle est nouvelle) il se basera donc sur le KBT des autres pages, il risque donc de considérer cette information comme vraie, elle viendra enrichir sa base de données et corrompre le système de vérification.
Alors bien sûr ce système ne pourra pas venir remplacer l’actuel PageRank basé sur les liens, car l’on sait bien qu’un très grand nombre de pages/sites web n’ont pas d’informations vérifiables.
Mais ceci viendra en complément du système actuel d’évaluation de la qualité des sites web (en terme de contenu uniquement).
Pour conclure : vous ne pourrez tout simplement plus mentir à Google.
Nb: j’espère n’avoir fait aucune erreur d’interprétation de l’article publié de peur de voir mon KBT diminuer.