10

Tags WordPress. Contenu dupliqué. Pénalité.

Baler SurfingParlez-moi d’une semaine riche en émotions ! Si celle-ci avait démarré de façon assez sympathique par un week-end prolongé à Baler (un spot de surf bien connu aux Philippines), elle s’est finie un peu en tête à queue !

Dès mercredi matin, lendemain de mon retour de Baler, je me suis ainsi retrouvé « confiné » à l’hôpital afin de traiter un abcès de la gorge causé par l’infection de la petite toux mineure (mais à priori mal soignée) attrapée lors de mon dernier voyage… Résultat 2 jours sur le flan avec une perf dans le bras et peu ou pas d’activité (physique et professionnelle…).

J’ai tout de même eu l’occasion lors de mon 2ème jour d’enchaîner 2 Skype très enrichissants avec JB Rives qui vient de lancer son nouveau programme de sport, et Fabien, créateur de sites de niche en herbe qui m’a contacté pour obtenir des conseils après avoir lu mon blog. Dans les 2 cas, de bonnes idées, de bonnes réflexions, et le plaisir de partager sur des sujets qui me passionnent.

Mais la vraie mauvaise nouvelle de la semaine, c’est la claque prise par l’un de mes sites ! Je n’ai jamais vraiment parlé en détails de ce site ici, car je ne souhaite pas mentionné son URL pour des question de sécurité. Mais ce que vous devez savoir c’est que ce site est mon « money site », celui qui génère le plus de traffic et le plus de revenus.

Il se situe dans la niche pharmaceutique et est monétisé par la vente de produits en affiliation via la plateforme Treated.

Le voir se faire dégommer en quelques jours par Google est à la fois assez attristant et douloureux, mais aussi potentiellement problématique. Trouver une solution est donc essentielle pour maintenir l’équilibre financier de mon activité.

Que s’est-il passé ?

Le problème a en réalité démarré il y a presque 1 mois. Mais comme Eric (la personne avec qui je travaille sur certains aspects SEO et optimisation de mon site) et moi avions démarré quelques tests, et qu’il n’est pas rare d’avoir des périodes (2 ou 3 semaines) de baisse entre 2 périodes de croissance, je ne me suis pas alarmé tout de suite…

C’est seulement il y a 2 semaines de cela, après la 3ème semaine de baisse que nous avons commencé à nous douter qu’il y avait quelque chose de vraiment problématique. A ce moment là, Eric a mis en place quelques actions qui devaient nous permettre de retrouver une santé, et la semaine de stabilisation nous a presque convaincu que nous avions trouvé quelque chose. C’était sans compter sur le nouveau coup de la semaine dernière…

Je vous laisse juger par vous même :

Chute de traffic

Cliquez sur l’image pour l’agrandir

Ce que vous voyez ci-dessus, c’est la courbe de traffic du site pharmaceutique. Celui-ci a été en croissance constante depuis son lancement, avec un petit coup de moins bien cet été (effet saisonnier), et un rebond dès la rentrée, avant le drame.

Notez comment le traffic plonge autour du 25 septembre, avant de se stabiliser (semaine dernière) puis de tout d’un coup reprendre une tendance à la baisse effrayante… Au final, les chiffres sont assez accablants :

  • Près de 60% de traffic perdu
  • De 400/500 UV par jour à environ 200
  • Entre 50 et 100 ventes perdues à la fin du mois
  • Une perte de CA estimée autour de 500 à 700€ (pour l’instant)

Comment expliquer cette chute ?

A première vue, difficile de trouver une explication à ça !

  • Le site est plutôt solide, avec plus de 80 pages de contenu (et + de 60 000 mots)
  • Il ne compte pas ou peu de liens de faible qualité (j’ai manuellement supprimé tous ceux créés à l’époque en prévision des updates Google)
  • J’ai supprimé il y a quelques mois la redirection automatique d’un domaine expiré avec des milliers de liens entrants vers celui-ci, pour la même raison.
  • Il est updaté une fois par semaine avec du contenu frais (quantité ET qualité).
  • Tout est « optimisé » (mais pas SURoptimisé) pour le SEO : keywords, densité, images, etc…
  • Eric avait commencé un gros travail d’améliorations plus techniques visant entre autres à rendre le site plus rapide (bon point SEO encore une fois).

Bien sûr, ma première réaction a été de jeter un oeil dans Webmaster Tools afin de voir si je n’avais pas écopé d’une pénalité liée aux nouvelles mises à jour Pingouin de Google. Mais celle-ci ayant (selon les analystes) pour but de pénaliser des sites avec trop d’ancres sur-optimisées, cela n’avait pas trop de sens. Enfin bon, autant vérifier :

action manuelle google

Pas de mauvaise surprise, je n’ai en effet pas été pénalisé par Google pour des actions « de spam » sur mon site… Cela dit, cela ne m’aide pas à comprendre ce qu’il s’est passé…

Jusqu’à ce qu’Eric mette le doigt sur ça :

améliorations HTML google

Cliquez sur l’image pour l’agrandir

Et « ça » c’est quoi ? C’est une alerte de Google pour me signaler que Webmaster Tools a détecté plusieurs éléments en dupliqué sur mon site.

  • 39 Balises META description en double (le nombre a baissé depuis hier tiens)
  • 20 balises titre en double
  • (Et autant de pages en contenu dupliqué non mentionnées…)

Et quand on sait à quel point Google déteste le contenu dupliqué, on commence à comprendre pourquoi mon site a pris une telle claque…

Comprendre d’où vient ce contenu dupliqué

C’est là que ça devient vraiment complexe. Je l’ai dis plus haut, l’intégralité du site a été rédigé soit par mes soins, soit par des freelancers. 100% du contenu est unique. Certaines pages reprennent des paragraphes similaires (infos utiles), mais rien de sérieux (quoi que, je pense que je vais changer ça dans le futur, on ne sait jamais du coup…).

Alors ou est ce que Google est aller chercher autant de contenu dupliqué ? Comment celui-ci est-il apparu ?

Réponse : WORDPRESS !

Comme vous le savez, j’utilise WordPress sur l’intégralité de mes sites (ce blog inclus). Facile à installer et à utiliser, WordPress est la solution idéale pour démarrer un site quand on n’y connaît rien. Cependant, et je m’en rends désagréablement compte avec ce problème, WordPress a tendance à ne pas toujours être très « intelligent »…

Je m’explique. Pour ceux qui connaissent WordPress, vous savez sûrement que celui-ci vous autorise à ajouter des TAGS.

tag wordpress

Ces tags sont des mots clés qui doivent aider à 1) structurer votre contenu et 2) aider votre SEO via l’ajout de mot clés relevants à votre contenu (même si cette seconde partie est de moins en moins vrai puisque Google ne tient plus (ou presque) compte de ces données.

Ces tags apparaissent sur mon site en fin d’article, et sont cliquables. Chaque tag renvoie vers une page permettant de consulter tous les articles ayant été taggués de façon similaires.

Alors où est le souci dans ce système ? Il apparaît à partir du moment où WordPress décide d’utiliser pour chaque tag les mêmes meta datas (titre, description) que pour les articles dédiés, mais également l’exact même contenu !

Illustration avec un exemple d’article disponible sur le site. Celui ci traite d’un type de produit en particulier lié à ma niche. J’ai taggé cet article de la façon suivante :

mes tags

Et bien désormais, lorsque je clique sur le tag « injection » par exemple, je tombe sur une page identique en tous points à l’article d’origine. La seule différence se situe dans l’URL qui passe de www.nomdusite.fr/URL à www.nomdusite.fr/tag/keyword. Le titre de l’article est le même. Ses meta-data sont les mêmes. Et le contenu même de la page est 100% identique !

A l’origine utilisés pour des raisons tout à fait « nobles », ces tags me mettent désormais en situation de création de contenu dupliqué vis à vis de Google, qui a donc naturellement (et assez logiquement) décidé de me pénaliser pour cela en désindexant (??) ou en tout cas dérankant assez fortement nombre de mes pages.

Solutions possibles et hypothèses

L’effet de la claque passé, il est temps de se poser les bonnes questions pour trouver des solutions efficaces à ce problème. Comme je l’ai dis, ce site est mon site principal, et la perte de son traffic (et de son revenu) infligerait un coup qui même s’il ne serait pas fatal (je dispose de plusieurs autres sources de revenu) serait en tout cas assez important sur mon activité.

Nous avons donc avec Eric déjà mis en place plusieurs actions assez radicales afin de stopper l’hémorragie :

  • L’ajout de titre et descriptions uniques pour CHACUN des 230 tags présents sur mon site… J’ai démarré ce travail lors de la première chute de traffic avec l’objectif de montrer à Google que chaque page tag avait une « identité » propre. Puis face à l’absence de résultat (le contenu dupliqué incluant le contenu même de l’article, qui lui ne pouvait être changé pour chaque tag) nous avons décidé de passer à une action un peu plus radicale (voir ci-dessous).
  • Le passage en « no-index » de tous les tags. A priori non faisable via directement WordPress (si quelqu’un sait comment faire, je suis preneur du conseil), Eric a dû passer par le fichier HTACCESS pour bloquer l’indexation futur des pages tags par Google.
  • La désindexation de toutes les URL tags. Ces pages étant 100% formées de contenu dupliqué pompé sur mes pages d’origine, nous avons demandé à Google de les désindexer, c’est à dire de ne plus les prendre en compte. En effet, le passage en no-index de mes pages tags n’est pas rétroactif, et donc n’a aucun effet sur la façon dont Google considère mon site aujourd’hui. Il faut l’inviter à me « reconsidérer » !
  • Le passage en « no-index » de toutes les URL de catégories. La pagination automatique effectuée par WordPress lorsque l’on dépasse un certain nombre d’articles par catégorie étant aussi considérée comme du contenu dupliqué, j’ai passé ces catégories en no-index (via le plugin YOAST SEO) dans wordpress.
  • La désindexation de toutes les URL catégories. Idem que pour les pages URL tags, le but est de désindexer tout ce qui pourrait être jugé comme du contenu dupliqué.

Ces actions devraient au minimum permettre de supprimer tout ce qui est (a été) considéré comme du contenu dupliqué par Google et donc pénalisé.

Mais supprimer les éléments problématiques ne garantit pas encore que je vais pouvoir recouvrer mes positions, et plusieurs questions restent en suspens :

  • Comment pousser Google à rapidement reconsidérer mon site et valider la suppression de ces « erreurs HTML » ?
  • Comment pousser Google à repositionner naturellement les URL de mes pages telles qu’elles l’étaient avant la « pénalité » ?
  • Combien de temps ça va prendre ???

Dans l’hypothèse ou la suppression des erreurs permettraient juste à Google d’arrêter de dégommer mes pages, mais pas de les repositionner (en considérant par exemple qu’une page pénalisée dans le passé ne mérite pas de recouvrer une bonne position – tout au moins à court terme), nous disposons d’autres idées d’actions :

  • L’update de l’ensemble des TITRES de mes pages afin de pousser Google à les réétudier (changement de contenu).
  • La suppression de l’ensemble des parties « similaires » sur mes article produits pour 1) supprimer toute trace de contenu potentiellement dupliqué (en interne) et 2) d’inviter Google à reconsidérer une page dont le contenu est tout frais.
  • La création d’un cocon sémantique pour chacune de mes pages clés touchées par une pénalité afin de les re-booster via l’ajout de contenu et d’un maillage interne intelligent.

J’ai prévu de démarrer leur mise en place dans les jours qui viennent afin d’obtenir les résultats les plus rapides possibles. Je partagerai ici les avancées.

Avez-vous déjà fait face à ce problème ? Partagez votre avis !

  • Avez-vous déjà fait face à un problème similaire ?
  • Quelles ont été vos solutions pour supprimer les erreurs remontées par Google ?
  • Voyez-vous d’autres stratégies que celles listées ici pour recouvrer mes positions ?
  • Combien de temps cela vous a pris pour retrouver votre traffic d’avant pénalité ?

Je ne vais pas vous mentir, pour Eric comme pour moi, ceci est une première. Je n’ai jamais eu à faire face à ce type de pénalités dans le passé, et Eric n’a jamais eu de client dans mon cas, soudainement impacté non pas par des actions manuelles « illégales » mais par la structure même de la CMS utilisée (WordPress).

Je tiens à préciser qu’il n’est pas « nouveau » que WordPress fonctionne de cette façon, mais c’est la première fois (à ma connaissance) que c’est pénalisé par Google.

Nous avançons donc uniquement avec des hypothèses, et en croisant les doigts pour que celles-ci se réalisent. Mais je serais ravi d’entendre votre avis, que vous soyez expert SEO ou ayez simplement rencontré des expériences similaires dans le passé sur vos sites WordPress.

Mon invitation à intervenir dans les commentaires ci-dessous est donc à la fois une invitation à la discussion, mais aussi au partage de ressources utiles pour tous ceux qui comme moi seraient aujourd’hui « bloqués » face à ce problème.

J’espère vous lire nombreux, et publierai dans les jours (ou semaines) qui viennent des updates sur le résultat des actions entreprises sur ce site. A très vite !

Click Here to Leave a Comment Below 10 comments