Branle bas de combat dans les SERP ! Les SEO sont en crise ! La nouvelle mise à jour de l’algorithme Google helpful content update (mise à jour contenu utile) inquiète les référenceurs.

Ceux qui ont des pratiques douteuses (texte provenant d’IA non modifiés, traductions sauvages, bouillie, rédacteurs offshore low-cost…), se demandent même si le SEO ne serait pas mort.

Helpful Content Update (HCU) inquiète particulièrement car comme les mises à jour PANDA ou PENGUIN, elle touche le site dans son ensemble. Ce ne sont pas juste des pages isolées qui peuvent être pénalisé, mais bien des sites complet. Ceci affecte directement les revenus qui peuvent être tiré le site Web qui ne seront déclassés.

Dans chaque circonstance, certaines personnes pensent que c’est la fin, alors que d’autres trouve les opportunités. Il y a toujours de belles opportunités à trouver dans une situation de crise, ou face a un nouveau changement.

Par exemple pendant la pandémie des auteurs ont eu un énorme succès sur Amazon KDP, pendant que tout le monde était confiné, comme par exemple Louise Lennox qui a généré plus 50.000$ de redevances en consacrant le temps qu’elle passait à faire des aller retour pour aller au boulot à l’écriture.

Depuis plus de 20 ans que GGL existe il y a toujours eu des mises à jour…

Ce que veut Google (et moi aussi)

Ce que Google veut dans cette helpful content update, et cela s’inscrit dans une volonté plus globale de Google de mettre en avant du contenu original écrit par des humains pour des humains.

C’est un revirement, car pendant plusieurs années Google avait en tête de mettre en place un classement uniquement algorithmique. Ce qui a entraîné en face des SEO qui ont modélisé leurs pratiques de monétisation sur ce principe. Tous ces créateurs contenus ont tenté de fournir à Google ce qu’il pensaient que Google désirait.

Les pratiques douteuses de certains référenceurs font qu’ils arrivent à tromper l’algorithme de Google. Ils arrivent à se faire indexé du contenu.

C’est l’éternel jeu du chat et de la souris.

Lorsque l’internaute fait sa recherche il n’arrive pas à trouver l’information qu’il recherche comme par exemple un avis objectif sur la meilleure formation WordPress.

Comme il n’arrive pas à trouver ce qu’il recherche, il finit par migrer sur un autre moteur de recherche comme Bing ou Qwant. Cela se traduit pour Google par de la perte de revenus publicitaires important.

Google d’ailleurs ne se définit plus comme un moteur de recherche mais comme un moteur de réponse il veut que les personnes qui fasse qui font des recherches sur son moteur trouve le réponse, ainsi ils reviennent encore et encore.

Les IA de rédaction de contenu qui ne font que paraphraser l’existant, fond de la soupe imbuvable. C’est bien pour cela que on appelle cette nouvelle update HCU l’AI crasher ! Cette update vise clairement le contenu SEO, qui n’est la que pour tromper les algos… Le contenu IA de mauvaise qualité est une sorte de pollution numérique…

Et si une réponse peut être apportée par une IA, Google va -comme il le fait de plus en plus- proposer lui-même la réponse en snipet, en position 0.

Google insiste aussi sur le contenu original, car quand quelqu’un cherche un truc, il regarde le site 1, puis le site 2 pour voir autre réponse, etc… Donc si tous les sites se ressemblent, Google fera le tri.

Qui va être affecté par HCU ?

La mise à jour affectera principalement les sites Web qui se concentrent sur les thèmes de l’éducation en ligne, des arts et du divertissement, et du contenu lié à la technologie.

Là où ça va faire mal, c’est que les sites sont affectés dans l’ensemble, et non pas juste quelques pages.

Dans un premier temps, seules les recherches en anglais seront affectées. Le contenu créé par des IA sera le plus touché par le nouveau signal de Google, qui entend donner plus de visibilité au contenu « créé par des personnes, pour des personnes ». Cependant si le contenu qui sort de l’IA est modifié, iGoogle n’a techniquement aucune possibilité de l’identifier sans y mettre de gros moyens.

Pour les requêtes qui nécessitent de l’expertise, comme dans le domaine du médical, Google plutôt que de considérer les backlinks ou la parfaite optimisation sémantique va plutôt se baser sur des signaux tels que le comportement des utilisateurs et la reconnaissance de modèles.

Vous risquez de vous retrouver dans une situation délicate si vous publiez du contenu de mauvaise qualité et répétitif dans le seul but d’attirer du trafic plutôt que d’offrir aux internautes un bon résultat de recherche.

Comment savoir que mon contenu est utile ?

Pour Google le fait que les utilisateurs qui cliquent sur un résultat sur une page de résultats de recherche et disparaissent est largement négatif. Google considère que les utilisateurs qui passent trop de temps sur les sites et les pages de résultats de recherche sont un énorme point négatif.

Si un utilisateur doit passer beaucoup de temps à trier des données inutiles et du contenu sans rapport, cela indique un site de qualité inférieure qui ne mérite pas plus de trafic. La durée des sessions et le taux de rebond sont souvent « mauvais » (sessions plus longues et taux de rebond plus faible), ce qui reflète essentiellement le fait qu’un site fournit des informations non essentielles.

Du point de vue de Google, c’est un bon signe qu’un utilisateur ait potentiellement des sessions plus courtes sur un site, et un taux de rebond plus rapide, ce qui peut signifier qu’un utilisateur a rapidement trouvé exactement ce qu’il cherchait : il n’a pas besoin de filtrer des données sans rapport ou de naviguer dans un espèce de labyrinthe sans fin.

Quand vous cherchez Pizza près de chez moi, vous n’avez absolument pas envie de connaître l’histoire de la Pizza ou même de la Pizzeria… Cela vous évoque quelque chose, ces gros « blocs SEO » dans les pages que vous visitez ?… Bye, bye !

Inutile de vous focaliser sur l’optimisation des H2, les meta-tags, les title. Se focaliser sur l’UX est une erreur, ce n’est pas la priorité.

Opportunités cachées

La sélection naturelle

Comme à chaque fois, les moins tenaces et les plus débutants vont abandonner leurs projets.

C’est là qu’il y a clairement une super opportunité à saisir. En allant sur les plates-formes de noms de domaines expirés, en surveillant des sites, il va être possible de récupérer des sites à moindre coût.

Ensuite en mettant un plan d’attaque, pour supprimer le mauvais contenu, le contenu répétitif et de basse qualité. La suppression de tout contenu inutile sur ces site Web peut renforcer le classement du contenu utile de votre site.

Comme Google cherche À favoriser les sites qui ont une expertise, les sites de niche ont encore de beaux jours devant eux.

L’idée est de trouver des personnes qui font du bon boulot mais qui ne savent pas monétiser…

Avoir du trafic sans apporter de la valeur, c’est le nouveau combat de Google. La data nous montre ce que GGL attends pour ses utilisateurs.

Se bonifier !

On croirait presque une incantation ! Soyons clair on est pas là pour parler de votre karma !

Moi j’ai remarqué qu’en proposant du bon contenu, répondant parfaitement à l’intention de recherche (vous pouvez la trouver avec Mangools), je gardais des positions stables sur les sites de mes clients.

Alors arrêtez la course absurde à la longueur. Je connais les préconisations de SEO : regardez les 10 premiers résultats et faire mieux que.

Seulement cela se traduit la plupart du temps par juste si le premier contenu qui est mis en avant sur Google fais un 1000 mots alors faites 1500 mots.

Cela devient aberrant réfléchissez un peu sur du long terme, cela veut dire que le meilleur contenu sera forcément le plus long ! Plutôt que de partir dans l’escalade de la quantité, il est beaucoup plus intéressant de découper votre contenu, vos pages vos articles en contenus plus pertinent, plus ciblés sur un sujet donné et de privilégier le maillage interne.

La qualité surpasse la quantité -et pas qu’en SEO… 😁

Cette prochaine mise à jour est destinée à récompenser les sites qui fournissent des réponses succinctes et orientées vers l’utilisateur.

Cela enverra un signal fort à Google, et surtout cela permettra à l’Internet de trouver la bonne information sans être noyé sous une tonne de contenu pensé uniquement pour des robots.

Mots à mes détracteurs

Je sais bien que de nombreuses stars du SEO ne raisonnent pas comme ça. Beaucoup de référenceurs se font un malin plaisir d’essayer de piéger l’algorithme. Et ils y arrivent dans une certaine mesure. J’ai plein d’exemples en tête de référenceurs qui gagnent énormément d’argent en produisant massivement un contenu totalement pourri.

En général cela fonctionne un moment, sur un temps plus ou moins long. C’est jusqu’à ce que le moteur s’en rende compte et mette en place un nouveau filtre…

Si vous souhaitez asseoir dans la durée votre site Internet alors suivez plutôt le modèle vertueux que je vous propose : créer un contenu de qualité qui correspond à l’intention de recherche des internautes.

Vous n’aurez alors plus jamais à redouter les mises à jour de Google 🙂

A lire également