News Google

News Google: Référencement SEO - Positionnement SERP Google

Algorithme Google

L'algorithme de Google est un ensemble d' instructions mathématiques et de filtres permettant à Google de fournir une page de résultats suite à une requête/position SERP).

PageRank

A l'origine l'algorithme était uniquement basé sur l'étude des liens entre les pages web et reposait sur un indice affecté à chaque page et nommé PageRank (PR).
Le principe était simple:
plus une page avait de liens entrants, plus son PageRank augmentait.
Plus une page avait de PageRank, plus elle en distribuait à ses liens sortants. Par extension, on parle du PageRank d'un site pour désigner le PageRank de sa page d'accueil, car c'est généralement la page qui a le plus grand PageRank parmi toutes les pages du site.

Optimisations de l'algorithme

Depuis le PageRank, l'algorithme prend en compte un grand nombre de signaux supplémentaires, parmi lesquels (liste non exhaustive) :

  • la fraîcheur de l'information la mention de l'auteur
  • le temps passé, le degré d'implication du lecteur
  • les sources de trafic autres que les SEO,  etc.

Google annonce procéder à environ 500 optimisations de l'algorithme par an, soit plus d'une modification par jour. De ce fait, les SERP peuvent varier de façon importante selon les modifications effectuées par les équipes de Google.

Google Caffeine

Google Caffeine est le nom donné à la nouvelle architecture déployée par Google en août 2009 (et régulièrement améliorée depuis), dont l'objectif est une prise en compte plus rapide des informations mises à jour, ce qui se traduit par un crawl amélioré et par conséquent des résultats plus frais dans les résultats de recherche.

Qu'est-ce que Google Panda ?

Google Panda fait référence à une amélioration majeure de l'algorithme de recherche de Google visant à dégrader le classement, dans les résultats du moteur, des sites de mauvaises qualité, ou « fermes de contenus ».
La mise à jour de l'algorithme a affecté 12% de l'ensemble des résultats dans Google sur les pages en anglais depuis son lancement en février 2011, selon la firme.
La mise à jour Panda (version 2.3) de Google a été déployée à  mi-août 2011. Celle-ci a donc un impact sur le référencement naturel des sites web, au bénéfice des sites proposant des contenus originaux, et plus pertinents pour l'internaute.

Les sites et contenus particulièrement visés

Dans une note explicative publiée en février 2011, Amit Singhal et Matt Cutts, qui participent à l'évolution de l'algorithme de recherche de Google (et à la lutte contre le spam), pointent les types de sites web et contenus qui font l'objet de pénalités dans le classement de Google, à la suite de la mise à jour Panda. Notamment:

  • Les sites web « sans valeur ajoutée » pour les utilisateurs et de faible qualité (une notion assez vague)
  • Les sites copiant les contenus d'autres sites web (duplicate content)
  • Les sites « qui ne sont pas très utiles »

L'algorithme Google Panda évolue également en fonction des retours d'utilisateurs, qui peuvent signaler les sites et noms de domaine de mauvaise qualité/ou trompeur, en les « bloquant » depuis la page de résultat de Google (option affichée à côté de « En cache »).
Les sites notamment visés -sans être nommés-, sont les « fermes de contenus », qui réunissent trois caractéristiques essentielles. Il faut que ces trois éléments soient réunis pour qu'un site soit - a priori - considéré comme de mauvaise qualité, et soit donc pénalisé par l'algorithme Panda.

  • Site optimisé pour un référencement naturel optimal dans Google, sur la base de requêtes fréquemment tapées par les internautes
  • Cette méthode a pour principal objectif de générer du trafic vers leurs pages web, et ainsi d'augmenter leurs revenus publicitaires
  • Les contenus proposés sont de mauvaise qualité (absence d'informations pertinentes, contenus dupliqués, pas en phase avec la recherche de l'internaute)

Les sites plus particulièrement exposés à un déclassement dans le résultats de recherche de Google sont:

  • Les comparateurs de prix sur internet et sites d'e-commerce
  • Les sites d'annuaires
  • Les sites de questions-réponses et certains sites collaboratifs de partage de connaissances
  • Certaines sites et portails d'actualités
  • Les forums de discussions

Google Panda

Panda est le nom donné au filtre déployé courant 2011 par Google pour lutter contre les sites de mauvaises qualités. Le principe consiste à dégrader le positionnement des sites dont le contenu est jugé de qualité trop faible:

La mise à jour « Panda » - nom de code du nouvel algorithme de Google - promet de changer les pratiques de référencement pour les éditeurs de sites web. Pénalisant le classement des sites de mauvaise qualité dans les résultats de Google, elle entend promouvoir le référencement naturel des sites produisant des contenus plus pertinents pour l'internaute.

Avec une approche plus centrée sur « l'expérience utilisateur » que sur ce qui « plaît » aux robots d'indexation de Google. Éclairage sur les tenants et les aboutissants de cette mise à jour majeure, avec quelques conseils pour préserver le référencement naturel de son site web, dans le sillage du « Panda ».

Préserver le référencement naturel de son site après Google Panda:

Quelques conseils

Actions à entreprendre et précautions

  • Supprimer les pages faibles en qualité/pauvres en contenu (ou utiliser le fichier de commande robots.txt pour ne pas indexer certaines pages web)
  • Supprimer les pages contenant du contenu copié sur d'autres sites
  • Supprimer les pages redondantes
  • Songer à supprimer les pages à la fois peu qualitatives et peu interactives (absence d'avis ou de commentaires)
  • Réorganiser l'affichage des publicités (si elles saturent l'espace visible de la page, y compris les publicités adsense)
  • Supprimer les discussions d'un forum sans contenu ou réponses un tant soit peu qualitatives (y compris au niveau de la forme et du style)
  • Éviter le langage Flash pour développer votre site, dans la mesure où Google ne pourra pas en évaluer la qualité (texte non visible)

Bonnes pratiques de référencement naturel

En général

  • Vérifier la régularité du passage du robot d'indexation de Google dans vos pages (ex : via la plateforme aux webmasters de Google). Une fréquence de crawl en baisse peut indiquer que la qualité de vos contenus est trop faible.
  • Vérifier la vitesse de chargement de vos pages (critère pris en compte par l'algorithme pour le référencement)
  • Privilégier une arborescence peu profonde, et une structure interne de liens simple (les pages trop profondes peuvent être ignorées par Google)
  • L'intégration de Rich Snippets à un site web permet de mettre en valeur certaines informations dans les pages de résultats de Google (ex : système de notation en étoiles) et offre des données qualitatives à l'internaute

Mots-clés

  • Réduire le nombre de mots-clés redondants dans les balises titre, H1, ou alt des images
  • A priori (toujours selon les informations données par Matt Cutts), un nom de domaine choisi sur la base de la pertinence des mots-clés le désignant n'est plus un critère suffisant pour optimiser son référencement.

Liens internes, externes et liens retour

  • Diversifier l'origine des liens retour destinés à transférer le PageRank d'un page web tierce pour améliorer votre référencement (trop de backlinks provenant d'une même source risquent d'être identifiés comme du spam)
  • Ne pas se contenter des plateformes de diffusion de communiqués de presse pour obtenir des liens retour, le transfert de PageRank à partir de celles-ci étant minoré (selon Matt Cutts)
  • Étoffer raisonnablement le réseau de liens internes entre les pages de votre site web (les liens doivent être pertinents), pour rendre apparente les pages les plus profondes, et faciliter leur indexation
  • Intégrer des liens externes à vos pages

Partage de contenus sur le web social

  • Google tient notamment compte de l'activité Twitter et Facebook lié à un site internet pour le référencer. Il est donc important d'intégrer cet aspect dans sa stratégie de référencement
  • Intégrer le bouton +1 à votre site web, il permet désormais de partager du contenu dans Google Plus
  • Utiliser un outils d'analyse de trafic web (ex : Google Analytics) pour déterminer quelles plateformes sociales pourvoient le plus de liens référents (notamment pour optimiser l'affichage des boutons sociaux sur votre site web

Les recommandations générales de Google sur la qualité des contenus

Dans le centre d'aide pour les webmasters, Google donne plusieurs conseils relatifs à la qualité des contenus. Et notamment

  • Proposer des contenus en pensant d'abord aux attentes des internautes, non aux moteurs de recherche
  • Proposer un contenu en adéquation avec ce qu'il suggère dans les pages de résultats de recherche (éviter de saturer ses pages de mots-clés non pertinents)
  • Ne pas participer à des systèmes de liens "conçus pour améliorer artificiellement le classement PageRank de votre site"
  • Eviter les textes ou liens cachés

Les principales questions de base selon Google

Les informations contenues dans cet article vous semblent-elles fiables ?
Cet article a-t-il été écrit par un expert ou une personne connaissant bien le sujet, ou bien ne donne-t-il que des informations superficielles ?
Le site contient-il des articles en double, qui se chevauchent ou se répètent sur un ou plusieurs sujets similaires, avec de légères variantes au niveau des mots clés ?
Auriez-vous suffisamment confiance en ce site pour lui communiquer les informations relatives à votre carte de paiement ?
Cet article contient-il des fautes d'orthographe, de style ou des faits inexacts ?
Le contenu proposé correspond-il aux centres d'intérêts réels des lecteurs ou bien n'est-il généré que dans le seul but d'améliorer le classement du site dans les résultats de recherche ?
L'article fournit-il des contenus, des informations, des recherches, des analyses ou des rapports originaux ?
La page offre-t-elle quelque chose en plus par rapport aux autres ?
Dans quelle mesure la qualité du contenu proposé est-elle contrôlée ?
L'article offre-t-il plusieurs points de vue sur ce qui s'est passé ?
Le site a-t-il une autorité reconnue dans le domaine abordé ?
Le contenu est-il produit en masse, récupéré auprès d'un grand nombre de sources externes ou encore étalé sur un vaste réseau de sites, ce qui fait que chaque page ou site ne fait pas l'objet d'un contrôle très poussé ?
L'article est-il soigné ou semble-t-il avoir été rédigé à la va-vite ? Si vous aviez une question relative à un problème médical, feriez-vous confiance aux informations contenues sur ce site ?
Le nom de ce site vous évoque-t-il une autorité compétente ?
Cet article propose-t-il une description complète du sujet ?
Cet article propose-t-il une analyse poussée ou des informations ayant demandé un certain travail de réflexion ?
Est-ce le genre de page que vous aimeriez ajouter à vos favoris, partager avec un ami ou recommander ?
Cet article contient-il un nombre excessif d'annonces qui distraient le lecteur ou l'empêchent d'accéder au contenu principal ?
Pourriez-vous trouver cet article dans un magazine, une encyclopédie ou un livre en version papier ?
Les articles sont-ils inutiles, car trop courts, trop superficiels ou trop vagues ?
Les pages ont-elles ou non été produites avec beaucoup de soin et de rigueur ?
Les internautes qui accèdent à ce genre de pages ont-il des raisons de se plaindre ?

Google Pingouin : bonnes pratiques  de référencement

Depuis mai 2012, Google a déployé une série de mises à jour de son algorithme qui vise à pénaliser les sites utilisant certaines techniques de référencement abusif.

Baptisée « Pingouin » (penguin en anglais), elle s'attaque plus particulièrement à l'automatisation des procédés de netlinking visant à améliorer le positionnement de pages web sur Google.

Avec le déploiement de Pingouin 4.0 en mai 2013, quelles bonnes pratiques SEO respecter pour réduire le risque de pénalités ?

News Google: Qu'est-ce que Google « Pinguin » ?

Pingouin (ou penguin) est le nom de code d'une série de mises à jour de l'algorithme de Google qui vise à pénaliser le classement des sites web utilisant des techniques de référencement abusif pour améliorer le positionnement de leurs pages dans les résultats de Google (SERP).

La mise à jour Pingouin s'est articulée en quatre temps, avec deux actualisations majeures, la plus importante étant la mise à jour inaugurale et celle du 22 mai 2013.

Dans le détail:

  • Pingouin 1, sorti le 24 avril 2012, qui affecte 3,1 % des requêtes (mots-clés)
  • Pingouin 2, sorti le 26 mai 2012 (0,1 % des requêtes impactées)
  • Pingouin 3, sorti le 5 octobre 2012 (0,3 % des requêtes)
  • Pingouin 4, sorti le 22 mai 2013 (2,1 % des requêtes)

News Google: Différences avec Panda

  • La mise à jour de l'algorithme de Google désignée sous le nom de « Panda » et déployée à partir de 2011 vise à pénaliser le classement des sites de faible qualité comme les fermes de contenu. Elle se concentre donc sur les critères de référencement internes au site
  • [Google Pingouin pénalise plus particulièrement les sites ayant recours à des techniques de netlinking abusives, c'est-à-dire contraires aux guidelines de Google. Cette mise à jour se concentre donc sur des critères de référencement externes au site (liens retours)

News Google: De Pingouin à Pingouin 4.0 : bonnes pratiques

Choix des ancres de liens dans les backlinks

  • Éviter de systématiser l'emploi de la même ancre de lien dans les backlinks : il est important de varier les requêtes associées aux liens retours
  • Faire attention aux ancres sur optimisées pour le référencement qui correspondent à des « requêtes exactes » destinées à améliorer le classement d'une page web sur un mot-clé fréquemment tapé. La multiplication de ce type d'ancres est un signal d'alerte pour Google

Netlinking

  • Proscrire l'achat de liens retours par l'intermédiaire de réseaux payants. Dans ses consignes aux webmasters, Google pointe du doigt les « système de liens » qui incluent notamment « l'achat de liens ou de messages qui contiennent des liens, et l'échange de biens ou de services contre des liens »
  • Éviter l'échange de liens réciproques
  • Éviter de positionner des liens retours depuis des sites reliés entre eux par des liens
  • Éviter la publication de liens retours depuis des sites web dont la thématique globale n'est pas connexe à celle du site cible (voire parfois hors thématique)

Doivent également être évités:

  • les liens retours positionnés dans des articles peu cohérents, au contenu de faible qualité
  • les liens partagés depuis des sites de bookmarking ou des annuaires de faible qualité
  • les liens largement diffusés au bas des pages de différents sites web
  • les liens avec des ancres sur optimisées dans les commentaires ou dans la signature de messages postés sur les forums de discussions

Désavouer un lien retour

Google fournit aux webmasters un outil leur permettant de désavouer les liens retours via le tableau de bord du service « Google : outil pour les webmasters ». Cet outil peut-être utilisé afin de supprimer des backlinks de faibles qualité.

News Google : Au-delà de Pingouin

Selon les informations de Matt Cutts, chef de l'équipe antispam de Google, plusieurs améliorations seront apportées à l'algorithme de Google dans la continuité de la mise à jour Pingouin courant 2013.

  • Les advertorials (publireportages contenant des liens en do-follow) auront tendance à être pénalisés car ils font circuler du Page Rank
  • L'efficacité des liens spammeurs sera réduite avec la mise en place d'un nouveau système d'analyse de liens
  • Google prévoit la mise en place d'un système de détection précoce des sites contenant des malwares et d'un dispositif d'aide aux webmasters afin de leur éviter des pénalités
  • Le classement de certains sites « qui font autorité dans leur domaine » sera réévalué selon différents critères de popularité
  • Google prévoit d'atténuer l'effet de la mise à jour Panda sur certains sites en prenant en compte de nouveaux signaux qualitatifs

Aller au glossaire referencement-gratuit.and-co.ch/