Google Panda : les sites descendent de leur arbre

Google Panda : pourquoi avoir mis en place un tel filtre ? Pourquoi ce filtre Panda fait-il peur ? Que faire pour éviter le déclassement ?

La France du web tremble depuis que Matt Cutts, grand chef de la qualité des résultats de Google a annoncé le déploiement en France, entre juillet et août, du terrible filtre « Panda », baptisé plus justement « Farmer » par Danny Sullivan.

Pourquoi avoir mis en place un tel filtre ?

Vous vous en êtes certainement rendu compte : trouver une information précise sur Google ne se fait pas forcément du premier coup. Très souvent les résultats sont pollués par des sites «copieurs de contenu », voire des pages de pseudos sous moteurs et de publicité à tout va. Ainsi plusieurs requêtes sont nécessaires pour trouver son bonheur.

Et cela touche directement les deux grands piliers de Google :

  • Faire du moteur une machine écologique
  • Faire du moteur un exemple de pertinence

Si un internaute trouve très rapidement ce qu’il cherche, c’est autant d’énergie dépensée en moins, et autant de notoriété positive en plus pour le roi des moteurs de recherche. Vous avez là les deux raisons principales motivant la création d’un filtre.

A noter aussi que depuis début 2010, le lancement de « caffeïne »*, l’index Google a explosé avec la même part de bon et de mauvais documents. Il était donc temps pour Google d’agir fermement.

Pourquoi ce filtre Panda fait-il peur ?

Depuis le mois de janvier 2011 aux USA et le mois d’avril en Grande Bretagne, le filtre Panda loin de pénaliser seulement les pratiques de SPAM, a déclassé un grand nombre de sites importants, qu’on estimait loin de tout reproche.

Qu’on en juge : ciao.co.uk 93% de trafic organique en moins, 28% pour about.com, 77% pour doityourself.com, etc (sources searchmetrics.com & Sistrix).

Une pratique courante en référencement est de se dire : « si les gros sites le font, on peut faire la même chose ». On mesure donc que la chute des sites les plus visibles cache une forêt de sites moins importants et bien plus nombreux. On comprend de plus mieux les craintes que le filtre inspire.

Que faire pour éviter le déclassement ?

Tout d’abord, le filtre en lui-même devrait être différent pour la France, mais cela ne veut pas forcément dire moins sévère ! Cependant, si l’on prend tout de même l’exemple anglophone, voilà les quelques pistes à mettre rapidement en pratique :

Supprimez la duplication de contenu et en particulier celle qui consiste à reprendre du contenu qui n’est pas le vôtre. La duplication de contenu au sein de votre site (ex : une même page accessibles via plusieurs URLs différentes) pourrait être considérée comme du contenu de moindre valeur donc punissable dans certains cas.

Ne donnez pas à Google et aux internautes des pages à faible contenu :
• textes trop courts sans valeur ajoutée pour le lecteur,
• textes trop chargés en mots clés,
• pages trop chargées en publicité, cela au détriment du contenu et de l’ergonomie,
• pages de listes de liens,
• pages de résultats de votre moteur de recherche interne. Elles sont souvent dupliquées partiellement et ne contiennent que rarement du texte valable.
• pages entièrement en Flash. Google est encore loin d’indexer correctement le Flash, il ne trouvera donc que des pages vides,
• sur les boutiques en ligne, un même produit décliné en différentes version via plusieurs pages quasiment identiques. Faire une seule page regroupant toutes les déclinaisons du produit.
• Etc.

Favorisez la création de backlinks de qualité. Les backlinks sont plus que jamais une des clés du référencement, mais les bons liens ne sont pas si faciles à faire, d’où leur valeur.

Un dernier point très important : diversifiez vos sources de trafic, Bing et Yahoo peuvent aussi vous apporter des visiteurs. N’oubliez pas les sites sociaux, ce sont aussi de gros pourvoyeurs de trafic. Et bien sûr, pensez à la publicité en ligne en commençant par les liens sponsorisés qu’ils soient sur des moteurs de recherche ou des médias sociaux.

Pour résumer, le nouveau filtre de Google sanctionne la triche et la mauvaise qualité du contenu et vous forcera peut être à vous pencher sur d’autres sources de trafic.

Maintenant, comme les virus face aux vaccins, la guerre n’est pas finie entre les tricheurs et Google, car quand on y regarde de plus près, ceux-ci s’en sortent plutôt très bien. Ce qui donne en plus bien des indices sur le fonctionnement précis de votre moteur de recherche préféré. Mais là « we are evil… » **

Auteur : Simon Vissol, directeur technique du service référencement chez Activis.

(*) Une nouvelle façon de « crawler » et de stocker les données
(**) Cf. les valeurs de Google : « Don’t be evil »

avatar
L'invité de Marketing Professionnel tient une Tribune Libre. Profil des invités et Tribunes Libres publiées.


Commentez !

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>