Les Algorithmes évoluent, ils sont Transparents

Depuis que Google est sur le marché des moteurs de recherche, nous avons pu apercevoir un grand nombre de changements au niveau de son fonctionnement, et notamment sur le système de classement général.

Il faut dire qu’aujourd’hui, entre les systèmes antispam comme Google Panda, Penguin & Co, ainsi que les différents algorithmes se perfectionnant de jour en jour, l’entreprise de Mountain View commence visiblement à remplir son objectif principal : répondre à notre question, bien avant qu’on lui ait posé. De plus, c’est sans parler du développement des services et outils qui permettent d’aider l’utilisateur dans bon nombre de ses quêtes (Gmail, YouTube, Drive, etc.).

Cependant, aujourd’hui, Google semble fonctionner différemment, notamment sur le lancement des mises à jour d’algorithmes et leur fonctionnement général. En effet, avant, il y avait quelque chose de récurrent de ce côté-ci. Google lançait ses mises à jour toutes les X périodes et il était plutôt facile de les diagnostiquer, tandis qu’aujourd’hui, cela ne semble plus être le cas et les repères tendent à devenir moins nombreux pour nous sans communiqué explicite.

C’est pour cela que je vous propose, en ce début du mois de décembre, une réflexion sur le passé, le présent et le futur. Dirigeons-nous vers des algorithmes transparents ?

Google Panda et sa greffe

Lorsque Google Panda fût lancé pour la première fois en 2011, beaucoup de consultants SEO fussent surpris par l’ampleur des dégâts. En effet, sanctionnant en un clin d’œil les contenus de mauvaise qualité, beaucoup de site sans contenu ou avec du copié/collé se sont vite retrouvés au fond du trou. C’est à tel point que beaucoup ont abandonné et ont été démoralisés par toute cette histoire. Il faut dire qu’avec le Google Penguin de l’année suivante, il y avait de quoi tirer une sacrée tronche.

Bref, Google Panda fût ensuite lancé à plusieurs reprises de manière assez régulière : on lançait le filtre, il faisait le ménage, on le relançait, et il refaisait le ménage. Un peu à la manière d’un aspirateur qu’on démarrerait et qu’on arrêterait.

Cependant, il n’y a pas si longtemps que cela, Google annonça finalement que le filtre Panda était sur le point d’être greffé au processus d’indexation des pages, ce qui fut mis en route quelque temps après. Ainsi, aujourd’hui, quand Google crawle un site, celui-ci évalue la page et applique par la même occasion ce fameux filtre antispam afin de dire si oui ou non le contenu est unique et d’une bonne qualité. C’est un processus continuel donc.

Cela veut finalement dire qu’aujourd’hui, nous ne pouvons pas prédire comme avant si nous sommes précisément pénalisés par un tel filtre à un instant T. Effectivement, auparavant, nous regardions nos statistiques à la date de la mise à jour pour constater une hausse, une baisse de trafic, ou encore un changement de nos positions, mais ce n’est plus trop le cas aujourd’hui à l’exception des mises à jour majeures du filtre. La pénalité s’effectue maintenant sur la longueur, partiellement ou totalement, et se diagnostique avec l’aide d’autres indicateurs (les statistiques certes) accompagnés de notre déduction.

En résumé, c’est flou et c’est un processus quasi transparent qu’on a du mal à cerner par rapport à avant.

Google Hummingbird et le jeu du cache-cache

L’année dernière, au mois de septembre 2013, une nouvelle version de l’algorithme principal fut mise en place par la firme de Mountain View : Hummingbird. Les principales nouveautés de cet algorithme sont la prise en charge de la signification des mots, la création de relations entre les mots afin de générer tout un système de compréhension et d’apprentissage des contenus (entre autres). En clair, c’est l’arrivée d’un nouveau système de classement, de machine learning et de traitement des informations tout en prenant en compte quelque chose d’important : la sémantique. « Comprendre pour répondre à une question avant qu’elle soit posée », mesure et objectif phare de Google je le rappelle.

Il y eut quand même quelque chose d’étrange avec ce lancement de Google Hummingbird : aucun indicateur, aucune personne n’a remarqué ce lancement impactant quand même 90% des requêtes, complètement transparent. La preuve étant qu’on a appris le lancement de ce nouvel algorithme un mois après sa sortie !

Pourquoi personne ne s’est douté de sa mise en place ? Pourquoi Google choisi t-il de jouer à cache-cache avec nous ? Pourquoi avons-nous finalement compris que cette mise à jour n’était rien d’autre qu’un sixième sens ajouté au moteur (la compréhension, la déduction, etc) ?

Des questions encore très floues pour beaucoup… Même si on y voit de plus en plus clair. Comme pour Panda, Google nous plante un couteau dans le dos en lançant tout et n’importe quoi et nous nargue avec des communiqués plus que mauvais.

Google Penguin For The Win

Un an… Il aura fallu UN an à Google pour sortir sa version 3.0 de Google Penguin : filtre antispam option liens factice. Pareil, ici je me pose de sérieuses questions. Des milliers de consultants SEO et webmasters ayant des sites pénalisés attendaient cette mise à jour du 17 octobre 2014 afin de savoir si leurs projets étaient sortis de pénalité ou non.

Mise à jour finalement relativement douce il parait… Il y aura toujours des personnes qui n’auront pas eu de chance, mais de manière générale, cela semble s’être plutôt bien passé.

Cependant, cette mise à jour de Google Penguin ne semble pas être terminée selon les dires de notre cher et tendre. En effet, depuis ce fameux 17 octobre, des communiqués s’enchainent et établissent clairement le message suivant : Google Penguin est toujours en cours de déploiement.

Et là je me pose la question : « Qu’est ce qu’ils sont encore en train de nous pondre ? ». Après Panda, après Hummingbird et certains autres évènements dont je n’ai pas parlé dans cet article, je ne peux pas m’empêcher de me demander s’il ne serait pas en train de nous faire un Penguin différent, un Penguin permanent. Je me dirige peut être vers une réflexion beaucoup trop poussée, voire plus intox qu’info, mais si c’était la réalité ?

Imaginez, un Google Penguin plus doux et subtil, qu’on ne peux plus vraiment prédire histoire de brouiller les pistes et nous empêcher de savoir si nous sommes pénalisés ou non. Comme le Panda, il faudra se débrouiller autrement. Belle technique pour nous faire psychoter davantage et nous pousser à ne plus faire de liens artificiels tout en nous vendant du Adword pour ranker ! Le progressif n’est pas brutal et est moins détectable.

Conclusion

Après cette réaffirmation de Google sur le fait que Penguin est encore en route, je me demande vraiment si les méthodes de création, de lancement, de communication et autres ne sont pas en train de changer chez big G. Entre cette « transparence » au niveau des lancements de mise à jour, ces processus de fonctionnement continuel, ces communiqués très bizarres à la vue des repères que nous avons et Matt cutts qui profite de ses vacances alors qu’on sait tous qu’il fait du télétravail et qu’il fait le fourbe, il y a de quoi se poser quelques questions.

Enfin, personnellement, je préférais me tromper plus qu’autre chose. Même si le fait d’avoir quelque chose de « rafraichi » me plaît, c’est à double tranchant. Le métier de SEO demande beaucoup plus d’effort aujourd’hui et devient de plus en plus flou niveau pratique, on ne sait plus vraiment où on met les pieds, et ce serait encore plus le cas avec tout ce qui a été dit. Cela dit, je rassure quand même, ça ne sera jamais le cas à un point extrême sans contrôle. Si nous n’avons plus un minimum de contrôle, Google non plus.

Commentaires

      Laurent Bourrelly

      says:

      Bah c’est le propre du SEO de pouvoir s’adapter à son environnement.
      Bien sûr qu’il faut monter en compétences dans un périmètre étendue, mais c’est tout le fun non ?

        Thomas Cubel

        says:

        Salut Laurent,

        Merci pour ton commentaire !
        Bien sûr, je suis tout à fait d’accord avec toi, l’adaptation est une qualité première dans le monde du SEO et il est important de monter en compétence, d’apprendre de nouvelles choses, etc. Je ne demande que cela ;)
        Après, il est vrai que dans l’article, je n’ai peut-être pas été bien clair sur mes idées, j’étais assez fatigué et j’ai dû transmettre quelque chose qui n’est pas vraiment ce que je pense.

        Aujourd’hui, il est clair que Google brouille les pistes et se dirige toujours plus vers le « Faites ce que je dis et pas ce que je fais ». En nous enlevant des indicateurs, des repères, en changeant ses méthodes, il nous aveugle et fait un peu ce qu’il veut de nous. Or, j’ai peur qu’à terme nous soyons dans l’obligation de faire tout et n’importe quoi pour arriver à nos fins.

        Ce n’est pas tellement le fait de s’étendre au niveau des compétences qui m’interpelle (on fait de la technique, de la rédaction, du social, du suivi… et cela ne me pose aucun problème, au contraire, je suis quelqu’un qui aime faire différentes tâches, qui aime la polyvalence). Non, c’est plutôt l’après qui me fait douter. Une personne qui te dit qu’elle sait tout faire sera souvent moins crédible qu’une personne spécialisée dans un domaine, même si sur le devis, on répond quand même à un besoin.

        Le flou au niveau de « ce qu’il faudra potentiellement faire » sera le flou représenté dans nos offres. Qui aura raison ? Qu’est-ce qui marchera ? Qu’est-ce qui ne marchera pas ? Déjà qu’on est super évasifs et libres sur nos méthodes, on tend à multiplier les avis, idées, méthodologies… de quoi brouiller le client, notre métier, etc. Je pense que le SEO n’a pas besoin de cela pour le moment, déjà qu’on nous prend pour des magiciens et que 90% des gens ne comprennent pas ce que l’on fait et comment cela fonctionne, je me demande ce que cela peut occasionner.
        Après, il est vrai qu’on pourra toujours jouer sur « le SEO c’est gros comme le marketing et ça comportent ceci et cela »… c’est un bon débat et les commentaires servent à cela. Il n’y a pas vraiment de réponse, c’est un article « réflexion » ;)
        Merci en tout cas pour ton intervention, c’est intéressant !
        A bientôt !

          serrurier villiers sur marne

          says:

          C’est ça le monde du web, il est toujours en évolution, pour répondre aux exigences du marché.

            laurent

            says:

            Moi j’ai eu la chance de découvrir le SEO au moment où Google réaménageait sa façon de classer les sites. J’ai donc d’entrée pris ce plis des « bonnes pratiques ». Maintenant, je vais voir quelle est la vraie puissance du contenu car pour mon nouveau site, j’ai utilisé le fameux cocon sémantique de Laurent Bourrelly…

            De plus, le site est en HTML full CSS codé à la main. On verra si ça a de l’influence !
            Je communiquerai gentiment dessus quand il sera en ligne !

            En tout cas, j’ai choisi d’orienter ma stratégie SEO interne sur l’expérience utilisateur et créer le moins de backlinks possible…

          Commentaires fermés.