Le SEO des moteurs de recherche favorise-t-il un climat malsain sur la toile ?

Les techniques d'optimisation utilisées par les moteurs de recherche auraient-elles ruiné internet ?

Pour ceux qui ont vu vécu dans la période partant de 1990 à 2000, ils ont été certainement aux premières loges pour assister à la démocratisation d’internet. La naissance des navigateurs Web. Les sites Web qui étaient conçus en pages statiques, puis en pages dynamiques avec animations à tout-va en JavaScript et surtout en flash. Pour certains, c’était le beau temps. Cette période a été également marquée par la naissance de plusieurs moteurs de recherche. En ces temps où personne ne connaissait encore Google, Altavista, Lycos, Yahoo étaient les outils de référence pour rechercher des informations sur le Web. Il a fallu attendre vers la fin des années 90, et précisément en 1997 pour voir la naissance de Google et MSN Search en 1998. Un peu plus tardivement sont apparus d’autres moteurs comme Baidu en 2006, DuckDuckGo en 2008 et Qwant en 2013.

Pour certains nostalgiques, internet qui était dès ses débuts un lieu d’information, de connexion, d’apprentissage et de découverte est devenu au fil des années un outil de division, de désinformation, de diffusion de publicités excessives. Le site SuperHighway98 fait partie de ces nostalgiques et estime que rechercher quelque chose sur Google entre 1998 et 2003 était magique. Les résultats renvoyés étaient très précis, non motivés par la volonté de positionner des articles les moins pertinents, mais disposant de plus de clics. Mais aujourd’hui, le référencement naturel ou organique (abrégé SEO en anglais pour Search Engine Optimization) utilisé par les moteurs de recherche pour classer les sites a ruiné internet, soutient l’auteur du site SuperHighway98.

Des spécialistes en SEO prêts à tout pour faire apparaitre leurs produits en première ligne

Sur le site SuperHighway98 qui fait la promotion des valeurs d’internet des années 90, l’auteur explique que les spécialistes en SEO mettent généralement en avant le fait qu’ils rendent le Web plus sûr, plus rapide et plus accessible. Mais pour ce dernier, l’on constate que parmi ces spécialistes du SEO, il y en a qui améliorent le classement de leur propre produit en piratant des sites tiers pour insérer des liens référençant leur site. Selon SuperHighway98, ces Black-Hat SEO ne sont pas les plus mauvais. Il y a une autre catégorie, les SEO « White Hat », les supposés bons gars, qui sont des loups déguisés en moutons. C’est cette dernière catégorie qui est à redouter le plus.

Selon SuperHighway98, tous ces spécialistes du markéting utilisent des arguments pour faire ce qu’en temps normal on qualifierait d’acte de piratage. Certains spécialistes en SEO vont même jusqu’à modifier sans votre accord des liens, des titres d’anciens articles que vous avez écrits sous le prétexte de l’optimisation du contenu afin de les rendre plus commercialisables. Mais en réalité, ce serait pour attirer les visiteurs vers du contenu plus récent et plus commercial.

Un autre problème que le site SuperHighway98 met en avant au niveau des entreprises, c’est de travailler à ne pas avoir de mémoire. Plutôt que d’archiver du contenu ancien avec une signification historique, ces sites Web élagueraient de leurs serveurs les anciennes références et retourneraient un code de statut 410 lors des recherches en gardant Google et les autres moteurs de recherche concentrés sur le contenu qui compte maintenant. Pour SuperHighway98, cette situation a été créée par ces techniques d’optimisation utilisées par les moteurs de recherche pour classer les sites sur leurs pages Web.

Les techniques d’optimisation utilisées par les moteurs de recherche ont-elles favorisé la décadence de la qualité des contenus sur internet ?

Malheureusement, l’auteur souligne également que du côté des moteurs de recherche, les faits constatés ne sont pas de nature à arranger les choses. Un premier fait relevé par SuperHighway98 est que Google, qu’il considère comme le meilleur système de récupération d’informations au monde est devenu comme le site diff.com en 2006. Digg est un site Web agrégateur d’informations qui sélectionne du contenu de divers médias. Sur sa page d’accueil, les contenus sont classés en fonction du vote des internautes. En 2006, une vive controverse est survenue lorsque le site, composé d’une poignée de personnes, a été accusé de manipuler le classement des contenus qui apparaissent sur la page d’accueil. Ces accusations ont été tenues à cause de ce qu’un nombre important d’articles ont été promus en tête de page grâce aux votes des membres du groupe de Digg. Aujourd’hui, c’est ainsi que de nombreux utilisateurs perçoivent Google et même les autres moteurs de recherche : un petit nombre de personnes qui définit ce que l’on peut voir dans les recherches sur internet en utilisant un indice de popularité, précise SuperHighway98.

Un autre inconvénient également rapporté par certains utilisateurs est que les techniques d’optimisation des moteurs de recherche, et notamment celles de Google, auraient poussé les sites Web à la quête de la quantité au détriment de la qualité. Par exemple, pour un article de haute qualité publié un jour donné et qui génère mille partages et un second site qui publie 10 articles pour 120 partages, le second site pourrait avoir un meilleur classement sur Google à cause du trafic plus élevé, mais pas forcément le meilleur contenu.

Une autre chose également décriée par le site SuperHighway98 est que lorsque vous effectuez des recherches pour un sujet, dans de nombreux cas, les liens qui apparaissant en tête du classement effectué par le moteur de recherche et qui sont prétendument jugés comme ceux qui ont le plus de trafic peuvent pointer vers divers sites Web. Mais dans bien cas, tous ces liens appartiennent à une seule entreprise, ce qui fait que l’on a l’illusion du choix, fait remarquer SuperHighway98.

Enfin, le site SuperHighway98 souligne que certains sites peuvent légitimement être recommandés par des utilisateurs dans leurs commentaires lors de leurs interventions sur des sites tiers. Mais avec l’instauration de l’attribut (rel = "nofollow") initié par Google, ces sites pour lesquels on a mis une référence dans un commentaire pourraient ne pas avoir un bon classement sur Google et les autres moteurs de recherche même s’ils sont visités par de nombreuses personnes, et cela à cause de l’attribut (rel = "nofollow") ajouté aux références externes laissées par les utilisateurs dans leurs commentaires.

Au vu de tous ces problèmes qui seraient imputables aux techniques d’optimisation, SuperHighway98 déclare ceci : « Le référencement est un jeu à somme nulle qui a un perdant pour chaque gagnant. Mais, nous perdons tous lorsque le SEO favorise le gaslighting, la pourriture des liens, la conformité, le monopole et la subversion ». Et de conclure en affirmant ceci : « Je me souviens quand il était facile de trouver la logique, les faits et la raison sur le Web. Ensuite, quelqu’un l’a optimisé ».

Avis de certains internautes

Comme SuperHighway98, de nombreux internautes rapportent certains problèmes liés aux techniques d’optimisation utilisées par les moteurs de recherche. Un utilisateur déclara par exemple que pour ses recherches sur Google en l’occurrence, les résultats retournés sont ceux qui sont les plus importants, les plus commerciaux ou les plus populaires, mais pas forcément les plus utiles ou les plus pertinents.

Cependant, pour d’autres utilisateurs, internet se porte très bien et son contenu également. D'autres ajoutent encore que sans ses techniques d’optimisation, certains sites très visités, mais qui ne disposent pas de budget markéting important n’auraient jamais eu l’opportunité d’être connus par des personnes sous d’autres cieux. Les moteurs de recherche devraient donc continuer à utiliser ses techniques d'optimisation.

Sources :
Site internet superhighway98
Site internet developpez