Jeudi 7 juin 2018
NASDAQ : 0.0 0   nasdaq0 %
RECHERCHE
OK
 
NEWSLETTER
newsletter
Abonnez-vous gratuitement
à notre newsletter
hebdomadaire - Cliquez ICI
Indexel
  • DOSSIERS
  • PRATIQUE
pub Publicité
 

ACTUALITES

Référencement : Google privilégie les sites de qualité

Imprimer Envoyer à un ami Contacter la rédaction
Par Antoine Robin le 02/03/2011 - indexel.net
 
Referencement-sites-de-qualite

Le nouvel algorithme du moteur de recherche rétrograde déjà 12 % des sites web américains accusés de plagiat ou de contenus de qualité médiocre.

 

Google vient de mettre à jour son algorithme de référencement pour privilégier les sites web dont le contenu est "de qualité". Près de 12 % des sites web sont déjà impactés aux États-Unis. L'objectif est de "rétrograder les sites de mauvaise qualité qui apportent peu de valeur pour les internautes, qui copient des contenus d'autres sites ou qui ne sont tout simplement pas très utiles", explique Matt Cutts, ingénieur chez Google en charge des techniques de référencement naturel (lire aussi Référencement naturel : 10 bonne pratiques à adopter). Dans le même temps, cette mise à jour "améliorera le classement des sites de bonne qualité qui proposent du contenu original, des articles de fond et des analyses pertinentes", ajoute le spécialiste.

Cette annonce de Google fait suite à la recrudescence des "fermes de contenu". Ces sites web sont créés à la demande par certaines entreprises spécialisées pour soutenir le lancement d'un produit ou d'un service et pour générer des revenus publicitaires. Le contenu est souvent copié depuis le site web d'origine, sans aucun respect des droits d'auteur puis dupliqué sur des sites satellites. Pour réduire les coûts, ces opérations de plagiat sont souvent exécutées en Inde, où la main d'œuvre est bon marché.

Google ne peut pas se permettre de soutenir ces pratiques déloyales car son chiffre d'affaires repose sur la qualité des résultats proposés par son moteur de recherche. En plus de ce nouvel algorithme, Google propose donc l'extension "personal blocklist" aux utilisateurs de son navigateur Chrome. Ce dernier permet de créer une liste noire des sites que l'internaute ne veut pas voir apparaître dans les résultats. Google n'exploite pas ces résultats mais indique qu'il y a une forte corrélation entre les sites rétrogradés par son algorithme et les filtres mis en place par les internautes.

Ces changements suscitent de vives réactions chez les spécialistes du web. D'une part, Google juge a priori la qualité d'un contenu, sans forcément être expert du domaine. Certains sites qui n'ont rien à se reprocher pourraient donc être des victimes collatérales de ce nouvel algorithme. D'autre part, chaque filtre mis en place biaise la neutralité des résultats.

LIRE AUSSI
 
Partager :
LIRE AUSSI
 
pub Publicité

CloudStack by IkoulaCloudStack by Ikoula

Cloud Computing : Atouts et freins, acteurs du marché, conseils et témoignages