Les moteurs cherchent à détecter l’augmentation artificielle de popularité afin de préserver la pertinence de leur classement, encore aujourd’hui très (trop ?) sensible aux liens.
Ainsi un site bénéficiant d’un afflux brutal et important de popularité peut paraître suspect. Normalement, un site est censé développer sa popularité de manière plus ou moins linéaire.
Ce comportement est d’autant plus suspect si le site est jeune. Un nom de domaine avec une certaine ancienneté pourra encaisser avec beaucoup moins de risque une campagne de netlinking poussée.
Néanmoins il n’y a pas de pénalité systématique (on parle souvent de sandbox).
En effet, le Web est le royaume du buzz où un site peut du jour au lendemain devenir la star du jour et ainsi obtenir de manière totalement naturelle un nombre délirant de backlinks.
Il serait alors illégitime et contre-productif pour un moteur d’infliger une pénalité.
Où se situe la limite ? Impossible de le savoir.
De puissants algorithmes cherchent certainement à évaluer la nature d’une augmentation de popularité.
Ainsi dans le cadre d’une campagne de netlinking, il faudra savoir parfois différer l’obtention de certains backlinks et surtout varier suffisamment les optimisations : type de sites, pages ciblées, ancres textes des liens… afin de paraître naturel.
Les moteurs savent néanmoins faire la différence entre un lien obtenu d’un site autoritaire dans votre thématique et un site lambda au contenu généraliste (même si ce dernier peut vous amener du trafic, par forcément qualifié)