Cloaking Dans le Maillage Interne : Est-Ce Légitime En SEO ?

La recherche organique est une importante source de trafic qui génère à elle seule 53,3 % de l’ensemble du trafic des sites web. Et selon une étude, le trafic provenant des moteurs de recherche est 1000 fois supérieur à celui qui provient des médias sociaux.

C’est pourquoi la plupart des entreprises souhaitent que leurs sites soient classés dans les SERP. Pour y arriver, ces dernières mettent en œuvre de nombreuses stratégies parmi lesquelles on retrouve le cloaking et le maillage interne.

Le cloaking dans le maillage interne est une stratégie qui fait particulièrement débat chez les professionnels de référencement quant à son efficacité et à sa légitimité vis-à-vis des règles de Google en matière de référencement.

Mais concrètement,

  • En quoi consiste le cloaking et peut-on l’utiliser pour référencer un site sans craindre les représailles de Google ?
  • Quelles sont les différences pratiques de cloaking ?
  • Comment utiliser le cloaking dans le maillage interne sans pour autant se faire pénaliser ?

Ce sont autant de questionnements qui animent le débat entre les spécialistes SEO. À travers cet article, j’apporte des réponses concises à chacune de ces interrogations.

Cet article invité a été rédigé en partenariat avec Alexandre de l’agence Twaino.

Suivez donc !

Chapitre 1 : Qu’est-ce que le cloaking et est-ce une technique de référencement valable ?

Pour certains référenceurs, le cloaking ne respecte pas les directives de Google et ne mérite donc pas d’être utilisé. Pour d’autres, il peut être utilisé dans certains cas pour améliorer les performances d’un site.

Dans ce chapitre, nous découvrons en quoi consiste le cloaking et ce qu’il en est lorsqu’il s’agit de l’utiliser dans le référencement d’un site.

1.1. Qu’est-ce que le cloaking ?

Le cloaking est une technique que certaines personnes utilisent pour référencer leurs sites. Elle consiste à présenter un contenu différent aux robots explorateurs de ce qui est présenté aux navigateurs des visiteurs.

En effet, les sites web sont tenus de présenter leurs pages au crawl des moteurs de recherche en vue de les indexer et d’obtenir un meilleur classement dans les SERP.

Dans le cas du cloaking, le serveur d’un site qui s’adonne à cette pratique est spécifiquement programmé pour afficher au crawl un contenu autre que celui qui est offert aux visiteurs.

Il s’agit généralement de faire croire aux robots explorateurs que le contenu est différent et meilleur que ce qu’il est en réalité. Le cloaking se caractérise souvent par des pratiques telles que :

  • Proposition d’une page de texte HTML aux moteurs de recherche, tout en proposant en réalité une page d’images ou de fichiers Flash aux utilisateurs.
  • Affichage des mots-clés dans le contenu uniquement lorsque les robots des moteurs de recherche demandent la page et non lorsqu’un visiteur humain accède à la page.
  • Etc.

Le but de cloaking est de monter rapidement dans les SERP pour certains mots-clés. Mais la question qui suscitent de vifs débats sur le cloaking est de savoir si cette technique de référencement relève du Black hat ou White hat.

Pour comprendre ce qu’il en est réellement, nous allons nous intéresser à la signification de ces deux expressions.

1.2. Qu’est-ce que le Black hat et le White hat

Il s’agit des deux grandes catégories de pratiques SEO. Il existe évidemment une deux autres  Grey hat et Dunce Cap, mais nous allons seulement nous intéresser au Black hat et le White hat.

1.2.1. Définition Black hat

Le SEO Black hat est l’ensemble des pratiques de référencement clandestin qui consistent à utiliser des techniques frauduleuses pour manipuler les résultats de recherche afin d’obtenir une bonne position dans les SERP.

Les techniques Black hat sont frauduleuses, car elles vont à l’encontre des directives des moteurs de recherche qui cadrent le fait de fournir aux internautes les meilleurs résultats possible à leurs requêtes.

Les spécialistes de référencement qui utilisent ces techniques obtiennent effectivement des résultats sur une période relativement courte. Cependant, ces pratiques sont de mauvaises approches lorsqu’il s’agit de référencer un site web.

Parmi les techniques Black hat, on retrouve le plus souvent :

  • Bourrage de mots-clés ; 
  • Duplication de contenu ;
  • Échange de liens contre de l’argent ;
  • Etc.

1.2.2. Définition White Hat

Contrairement aux techniques de référencement clandestin, le SEO White hat consiste à utiliser des techniques éthiques pour améliorer les performances d’un site dans les SERP.

Le SEO White hat requiert beaucoup de temps et les résultats deviennent visibles progressivement. Il est souvent considéré comme un investissement à long terme et ses résultats durent plus longtemps.

Il repose sur la création de contenu de valeur qui cible un public donné et la génération de liens retour de qualité.

Les pratiques SEO White hat sont une bonne approche lorsqu’il s’agit d’optimiser un site et de nombreux spécialistes de marketing préfèrent se concentrer sur ces pratiques.

1.2.3. En quoi le White hat et le black hat se diffèrent-ils ?

Ces techniques de référencement ne se comportent pas de la même manière. Les pratiques clandestines de référencement enfreignent les directives de Google et sont susceptibles de déclencher des sanctions.

En effet, le moteur de recherche devient de plus en plus malin grâce à ses mises à jour et il peut reconnaitre les manipulations qui vont à l’encontre de ses règles. 

Il peut donc appliquer une série de pénalités comme une chute de classement ou une suppression complète de l’index.

Dans le même temps, les techniques White hat respectent les règles de Google et améliorent nettement le classement d’un site lorsqu’elles sont mises en œuvre correctement.

1.3. Le cloaking : Est-il une stratégie de référencement clandestine ou légale ?

Le fait de montrer aux robots explorateurs un contenu autre que celui qui s’affiche aux visiteurs est sans doute une tentative de manipulation qui ne respecte pas les principes de Google.

De ce point de vue, le cloaking est une technique illégale et on parle souvent de cloaking Black hat. C’est ce que Matt Cutts estime aussi lorsqu’il déclare :

Le White hat cloaking est une contradiction dans les termes de Google. Nous n’avons jamais eu à faire d’exception pour le camouflage “chapeau blanc”. Si quelqu’un vous dit cela — c’est dangereux“.

L’utilisation des techniques de cloaking expose les sites aux sanctions de Google notamment les pénalités de son algorithme ou des actions manuelles. 

Toutefois, bien que le cloaking enfreigne les règles de Google, il n’est pas complètement une pratique Black hat. Il peut être utilisé dans l’intention d’améliorer l’expérience des utilisateurs d’un site.    

C’est le cas du cloaking dans le maillage interne qui permet d’améliorer la structure d’un site et d’optimiser le budget crawl. Rappelons que le maillage interne est le processus de mise en relation des pages d’un même site.

Nous découvrons dans la partie consacrée aux cloaking dans le maillage interne, la manière dont elle peut être utilisée de façon légitime. 

Le cloaking permet aussi de remplacer les liens qui ne conviennent pas aux moteurs de recherche par ceux qui conviennent dans l’intérêt des robots d’indexation. Il s’agit par exemple des liens qui renvoient vers des pages de connexion ou présentant des paramètres superflus.

Chapitre 2 : Les différents techniques de cloaking

Le cloaking peut être utilisé de différentes manières et il est parfois difficile à repérer. Nous aborderons dans ce chapitre, les techniques de cloaking les plus utilisées.

2.1. Le cloaking à partir de l’agent utilisateur

Le cloaking impliquant l’agent utilisateur est l’un des plus risqués, mais aussi très répandu. Il consiste simplement à identifier l’agent utilisateur du visiteur et à adapter le contenu en conséquence.

Par exemple, si le serveur identifie que l’utilisateur est un navigateur, la ressource fournie sera conçue pour les hommes notamment avec des fichiers multimédias.

Par contre, quand l’agent utilisateur est un bot, la ressource fournie sera très optimisée avec beaucoup de texte. Les personnes qui utilisent cette technique cherchent généralement à scinder la page en deux versions.

Elles pourront ainsi répondre à la fois aux exigences des visiteurs en matière de design et à celles des moteurs de recherche en termes de qualité de contenu.

Cependant, cette technique tend à disparaitre, car les robots explorateurs arrivent à la détecter facilement, notamment grâce aux CSS.

2.2. Cloaking basé sur l’adresse IP

Chaque utilisateur qui navigue sur le web possède une adresse IP en fonction de sa localisation et de son service Internet. C’est un numéro unique qui est attribué à tous les appareils connectés et qui leur permet de communiquer entre eux à travers un réseau.

Le cloaking IP est une stratégie par laquelle le serveur détecte l’adresse IP d’un appareil qui accède à un site web afin de fournir à ce dernier, un contenu en fonction des informations qu’elle révèle.

Il est souvent utilisé pour proposer un contenu adapté au visiteur en fonction de sa localisation. Cette technique peut être aussi utilisée pour détecter le bot d’un moteur de recherche afin de proposer une page très bien optimisée.

Ainsi, le robot estime que la ressource est de qualité et lui attribuera une meilleure place dans les SERP.

2.3. Dissimulation via JavaScript ou Flash

Cette technique exploite les différents paramètres du navigateur des visiteurs. Quand le navigateur du visiteur est compatible avec JavaScript, le visiteur reçoit un contenu différent de celui d’un visiteur dont le navigateur n’est pas compatible.

Le même principe s’applique pour les pages web qui utilisent la fonction Flash pour afficher des contenus multimédias. Mais le cloaking basé sur cette technique est quelque peu obsolète, car les Flash sont progressivement en train d’être abandonnés.

2.4. Le camouflage avec du texte invisible

Le camouflage est l’une des plus anciennes techniques de cloaking qui fonctionnait autrefois. Cette technique qui s’avère être la plus exposée aux sanctions consiste à ajouter et à répartir sur toute la page du texte non visible.

Il s’agit de mettre le texte dans la même couleur que l’arrière-plan. Cette technique est révolue, car Google arrive à repérer les textes camouflés.

Les fichiers CSS sont désormais accessibles aux robots explorateurs et ces derniers détectent sans difficulté les textes cachés.

2.5. Masquage via HTTP_Referer et HTTP Accept-language

Cette technique vérifie l’en-tête HTTP_REFERER du demandeur et montre une page différente ou un contenu différent en fonction du référent HTTP envoyé par le navigateur web.

En ce qui concerne la deuxième technique, on procède à la vérification de l’en-tête HTTP Accept-Language de l’utilisateur afin de déterminer la langue par défaut ou la langue préférée du client (navigateur).

En fonction du résultat, le serveur montre une version spécifique qui correspond à la langue du client.

2.6. Page riche en textes masqués

Le nombre de mots dans un contenu joue un rôle crucial dans le classement des pages web. Selon une étude, les pages qui ont une meilleure position dans les SERP ont en moyenne 2416 mots.

Cela résulte du fait que les robots parcourent particulièrement le contenu texte d’une page et n’analysent pas ses images. Mais les galeries d’images sont des sites qui comportent plus d’images que de contenu texte.

Afin d’augmenter leurs chances d’apparaitre dans les SERP, certains webmasters masquent les pages avec des mots-clés et du contenu qui peut les aider à obtenir de meilleur classement.

Chapitre 3 : White Hat cloaking – techniques intelligentes et tolérées

Le White hat cloaking regroupe l’ensemble des techniques de cloaking qui ne sont pas mal intentionnées et qui n’entrainent pas les sanctions de Google lorsqu’elles sont bien faites.

Il s’agit de cloaking dans le maillage interne comme nous l’avons mentionné précédemment et du blocage de certaines pages aux robots explorateurs. Ce chapitre est consacré à ces différentes techniques et la manière dont on peut s’en servir.

3.1. Le cloaking dans le maillage interne pour améliorer la structure d’un site

Dans l’optique d’offrir une interface facile à utiliser à leurs visiteurs, les sites web proposent des méga-menus et des filtres à facettes qui rendent la navigation agréable.

Mais de nombreux sites web ont rapidement été confrontés à la difficulté de mélanger SEO et expérience utilisateur (UX), d’où l’intérêt du cloaking de liens.

Il permet en effet de coordonner les activités des professionnels du UX et celles des spécialistes de SEO. Il met fin aux conflits entre ces deux disciplines et il n’est plus nécessaire de chercher à savoir si un lien qui est bénéfique à l’UX l’est aussi pour le référencement.

Avec le cloaking de liens, les sites web peuvent montrer aux robots explorateurs seulement les liens qu’ils veulent que les bots voient et aux visiteurs les liens qui semblent utiles pour eux.

Ainsi, il est possible d’améliorer nettement l’expérience des utilisateurs tout en soumettant aux crawls, des pages optimisées.

Le cloaking dans le maillage interne facilite aussi le ciblage géographique des utilisateurs. Le fait de géolocaliser automatiquement permet de déterminer d’où vient un visiteur et quelle page il veut voir.

Mais les robots sont par contre redirigés vers une page non ciblée géographiquement. Quant aux visiteurs, ils voient à l’écran un contenu adapté à la localité depuis laquelle ils sont connectés. 

À titre d’exemple, un utilisateur américain verra une page différente de celle que voit un Français. Les robots explorateurs voient cependant une page standard qui ne dépend d’aucune localisation.

3.2. Le cloaking dans le maillage interne pour optimiser le budget d’exploration

Encore appelés “araignées”, les robots explorateurs parcourent les pages des sites web en vue de lire leurs contenus et de les ajouter dans l’index des moteurs de recherche.

Pour parcourir les pages d’un site, ces bots suivent les liens internes qui constituent en quelque sorte des chemins. 

Cette exploration est systématique et les robots analysent tous les URL sans distinguer les plus importants pour un site web.

Cependant, il peut arriver que les robots ne parcourent pas toutes les URL d’un site en raison de l’épuisement du budget crawl. En effet, il existe un nombre limité d’URL qu’un robot peut explorer sur un site web.

Par conséquent, lorsqu’un site à un nombre de pages qui dépasse le budget crawl, le robot explorateur ne sera pas en mesure de parcourir toutes ces pages et celles qui sont délaissées ne seront pas indexées.

Pour éviter que cela n’arrive, il est conseillé de ne pas laisser le robot accéder aux pages qui ne sont pas de grande importance afin que ce dernier puisse s’occuper des pages de grandes utilités.

Le cloaking de lien apparait comme un moyen efficace pour cacher certains liens internes aux robots afin d’optimiser le budget crawl.

Cette technique est particulièrement pertinente pour les sites qui présentent une navigation à facettes, souvent à l’origine de centaines de pages qui consomment le budget crawl, sans pour autant générer du trafic.

Ainsi, le fait de cacher ces liens internes à Googlebot permet de concentrer le budget crawl sur les ressources stratégiques du site. 

Mais pour bien optimiser le budget crawl, il est également important de créer des liens entre les pages dont les thématiques sont proches ou complémentaires.

Ce faisant, vous mettez de l’ordre dans le maillage interne et Google a une meilleure compréhension globale de votre site.

STATISTIQUES SEO MONKEY

Pré-audit Offert

Chez SEO MONKEY, nous sommes particulièrement sensible à l’honnêteté et à la transparence. Le pré audit SEO est 100% gratuit car il est réalisable rapidement, et qu’il est indispensable pour vous présenter une devis adapté à votre situation.

En résumé

Somme toute, le cloaking est une stratégie de référencement parmi tant d’autres et il consiste à fournir aux robots explorateurs, un contenu autre que ce que les visiteurs voient.

Il s’agit en réalité d’une pratique multifacette qui comprend à la fois des techniques Black hat et White hat. 

Le cloaking White hat qui permet d’améliorer le maillage interne est légitime et n’entraine pas les sanctions de Google. Les webmasters peuvent donc s’en servir pour aider les moteurs de recherche à comprendre l’organisation de leur site et pour optimiser le budget crawl.

Cependant, ils doivent s’éloigner des pratiques de cloaking Black hat qui sont susceptibles de créer de graves préjudices à leurs sites.

Si vous pensez qu’il y a d’autres manières d’utiliser le cloaking pour améliorer les performances de votre site sans pour autant attirer les sanctions de Google, n’hésitez pas à nous le dire en commentaire.

Merci !

4.6/5 - (5 votes)

Derniers commentaires (réponse en moins de 24h)

0 commentaires

Soumettre un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ceci devrait te plaire