refcom.ma : Moteur de recherche anti-spam

Gratuit
Recevez toutes nos informations et actualités par Email.

Entrez votre adresse email:

Moteur de recherche anti-spam

Tant qu’il y est la recherche, il y aura toujours du spam. La pratique du spamming les moteurs de recherche - créer des pages et des programmes visant à gonfler artificiellement le classement ou d’abuser les algorithmes de classement utilisés pour trier le contenu - est en hausse depuis le milieu des années 1990.

Avec des gains si élevé (à un moment donné, un gars SEO noté pour nous que le classement seule journée au-dessus des résultats de recherche Google pour la requête “buy viagra” pourrait apporter vers le haut de 20.000 $ en revenus d’affiliation) Il n’est guère étonnant que la manipulation des moteurs est telle une activité populaire sur le Web. Cependant, il est devenu de plus en plus difficile et, à notre avis, de moins en moins intéressant pour deux raisons.

1. Pas la peine

Les utilisateurs déteste le spam et les moteurs de recherche ont un incitatif financier pour le combattre. Beaucoup de gens pensent que l’avantage de Google meilleur produit au cours des 10 dernières années a été leur capacité à contrôler et à éliminer le spam mieux que leurs concurrents. C’est sans doute quelque chose tous les moteurs passent beaucoup de temps, d’efforts et de ressources sur. Bien que le spam fonctionne encore à l’occasion, il est généralement plus difficile à réussir que la production de «bon» le contenu, et le gain à long terme est quasi inexistante.

Au lieu de mettre tout ce temps et d’efforts dans quelque chose que les moteurs vont jeter, pourquoi ne pas investir dans une valeur ajoutée, une stratégie à long terme à la place?

referencemets par referencements

2. Smarte Moteurs

Les moteurs de recherche ont fait un travail remarquable identifié évolutives, des méthodologies intelligentes pour lutter contre la manipulation anti-spam, ce qui rend considérablement plus difficile à nuire à leurs algorithmes prévus. Concepts complexes tels que TrustRank (dont l’indice de Link scape SEO moz tire parti), HITS, l’analyse statistique, les données historiques et plus ont entraîné une baisse de la valeur de la recherche anti-spam et fait soi-disant “chapeau blanc” tactique (ceux qui ne violent pas les moteurs de recherche «lignes directrices) beaucoup plus attrayant.

Plus récemment, mise à jour Panda de Google a introduit machine sophistiquée des algorithmes d’apprentissage pour lutter contre le spam et les pages de valeur faible à une échelle encore jamais vu en ligne. Si le travail des moteurs de recherche est de fournir des résultats de qualité, ils ont amassé l’année bar après année.

Ce guide n’a pas pour but de montrer certaines tactiques de spam, mais, en raison du grand nombre de sites qui sont pénalisés, interdits ou signalés et demander de l’aide, nous allons couvrir les différents facteurs moteurs utilisent pour identifier le spam afin d’aider les praticiens SEO éviter les problèmes. Pour plus de détails sur le spam des moteurs, voir Consignes aux webmasters de Google et Bing.

La chose importante à retenir est la suivante: non seulement les techniques de manipulation ne vous aidera pas dans la plupart des cas, mais souvent ils provoquent des moteurs de recherche d’imposer des sanctions sur votre site.

Les moteurs de recherche d’effectuer des analyses anti-spam à travers les pages et les sites Web individuels entiers (domaines). Nous allons examiner d’abord comment ils évaluent les pratiques de manipulation sur le niveau de l’URL.
Accumulation de mots clés

L’une des techniques de spam les plus évidents et malheureux, bourrage de mots clés, consiste à jeter des ordures répétitions de termes de mots clés ou de phrases dans une page afin de la faire paraître plus pertinent pour les moteurs de recherche. L’idée derrière cela - que l’augmentation du nombre de fois qu’un terme est mentionné peut considérablement augmenter le classement d’une page - est généralement fausse. Études portant sur des milliers de résultats de recherche en haut à travers les différentes requêtes ont constaté que les répétitions de mots clés jouent un rôle extrêmement limité dans la stimulation de classement, et présentent une faible corrélation globale avec le placement en haut.

Les moteurs ont des façons très évidentes et efficaces de lutte contre cette. Numérisation d’une page de mots-clés en peluche n’est pas massivement difficile, et les algorithmes des moteurs »sont tous à la tâche. Vous pouvez en savoir plus sur cette pratique, et des vues de Google sur le sujet, dans un billet de blog de la tête de leur équipe anti-spam web - SEO au Maroc Conseil: évitez Accumulation de mots clés.

Sleigh de Santa

Une des formes les plus populaires de spam web, acquisition de liens de manipulation repose sur l’utilisation des moteurs de recherche de la popularité de lien dans leurs algorithmes de classement pour tenter de gonfler artificiellement ces mesures et améliorer la visibilité. C’est l’une des formes les plus difficiles de spamming pour les moteurs de recherche à surmonter, car il peut venir sous tant de formes. Quelques-unes des nombreuses façons liens de manipulation peuvent apparaître sont:

Réciproques des programmes d’échange de lien, dans laquelle les sites de créer des pages qui pointent lien d’avant en arrière les uns aux autres dans une tentative de gonfler la popularité de lien. Les moteurs sont très bons à repérer et à dévaloriser ce qu’ils répondent un modèle très particulier.
Systèmes de liens, y compris les “fermes de liens” et de “réseaux lien” où les sites de valeur contrefaits ou bas sont construits ou entretenus uniquement comme des sources de liaison pour gonfler artificiellement la popularité. Les moteurs de lutter contre ces travers de nombreuses méthodes de détection des connexions entre les enregistrements de sites, les chevauchements de liens ou d’autres facteurs communs.
Les liens payants, où ceux qui cherchent à gagner des rangs plus élevés achètent des liens de sites et de pages disposés à placer un lien en échange de fonds. Ceux-ci évoluent parfois dans les grands réseaux d’acheteurs et de vendeurs lien, et bien que les moteurs de travailler dur pour les arrêter (et Google en particulier, a pris des mesures spectaculaires), ils persistent à fournir de la valeur à de nombreux acheteurs et vendeurs (voir ce post sur les liens payants pour davantage sur cette perspective).
Low annuaire de liens de qualité sont une source fréquente de manipulation pour beaucoup dans le domaine de référencement. Un grand nombre de répertoires web de rémunération au placement existent pour servir ce marché et se faire passer pour légitime avec plus ou moins de succès. Google prend souvent des mesures contre ces sites en enlevant le score PageRank de la barre d’outils (ou en le réduisant de façon spectaculaire), mais ne le feront pas dans tous les cas.

Il ya beaucoup plus de manipulation des tactiques de renforcement des liens que les moteurs de recherche ont identifié et, dans la plupart des cas, trouvé des méthodes algorithmiques pour réduire leur impact. De nouveaux systèmes de mails apparaissent, les ingénieurs vont continuer à se battre avec des algorithmes ciblés, critiques de l’homme et la collecte des rapports de spam des webmasters et référenceurs.

Un principe de base de toutes les directives du moteur de recherche est de montrer le même contenu aux robots du moteur que vous souhaitez montrer à un visiteur ordinaire. Cela signifie, entre autres choses, de ne pas masquer le texte dans le code html de votre site Web qu’un visiteur normal ne peut pas voir.

Lorsque cette limite est cassée, les moteurs de l’appeler «cloaking» et prendre des mesures pour prévenir ces pages de classement de leurs résultats. Cloaking peut être accompli dans un certain nombre de façons et pour diverses raisons, à la fois positif et négatif. Dans certains cas, les moteurs peuvent laisser des pratiques qui sont techniquement “cloaking” laissez-passer, comme on fait pour des raisons positives de l’expérience utilisateur. Pour en savoir plus sur le sujet de la dissimulation et les niveaux de risque associé à diverses tactiques et les intentions, voir ce post, White Hat Cloaking, de la Rand Fishkin.

Bien qu’il puisse ne pas être techniquement considéré comme “spam web”, les moteurs ont tous des méthodes pour déterminer si une page contient un contenu unique et la «valeur» de ses chercheurs avant de l’inclure dans leurs indices et résultats de recherche Web. Les types les plus couramment filtrés de pages de contenu “mince” affiliation, duplicate content, et les pages de contenu généré dynamiquement qui fournissent très peu de texte unique ou une valeur. Les moteurs sont contre l’inclusion de ces pages et utiliser une variété d’algorithmes d’analyse de contenu et un lien vers filtrer “de faible valeur” pages d’apparaître dans les résultats.

Mise à jour de Google Panda 2011 a eu des étapes les plus agressifs jamais vu dans la réduction de contenu de faible qualité sur le web, et Google continue de mettre à jour ce processus.

En plus de regarder des pages individuelles pour le spam, les moteurs peuvent également identifier les caractéristiques et les propriétés de l’ensemble des domaines de racines entières ou sous-domaines qui pourraient les marquer comme spam. Évidemment, à l’exclusion des domaines entiers est affaire délicate, mais c’est aussi beaucoup plus pratique dans les cas où une plus grande évolutivité est nécessaire.

Tout comme avec des pages individuelles, les moteurs peuvent contrôler les types de liens et de références de qualité envoyés à un site Web. Les sites qui sont clairement engagés dans les activités de manipulation décrite ci-dessus de manière cohérente ou de sérieuses répercussions pourraient voir leur trafic de recherche souffrent, ou ont même leurs sites interdits de l’indice. Vous pouvez lire quelques exemples de ce de messages passés - Widgetbait Gone Wild ou la couverture plus récente de la peine de JC Penney Google.


Créature mythique

Les sites web qui gagnent le statut de confiance sont souvent traités différemment de celles qui n’en ont pas. En fait, de nombreux référence ont commenté les «doubles standards» qui existent pour juger “grande marque” et des sites d’importance élevée contre les nouvelles, les sites indépendants. Pour les moteurs de recherche, la confiance a probablement beaucoup à voir avec les liens de votre domaine a gagné. Ainsi, si vous publiez de faible qualité, dupliquer le contenu sur votre blog personnel, puis acheter plusieurs liens à partir de répertoires de type spam, vous êtes susceptible de rencontrer d’importants problèmes de classement. Toutefois, si vous étiez à poster ce même contenu à une page sur Wikipedia et obtenir ces mêmes liens de type spam pour pointer vers cette URL, il serait probablement encore un rang extrêmement bien - tel est le pouvoir de la confiance de domaine et autorité.

Faites confiance construite grâce à des liens est aussi une bonne méthode pour les moteurs à employer. Un peu de contenu en double et quelques liens suspects sont beaucoup plus susceptibles d’être négligés si votre site a gagné des centaines de liens de haute qualité, sources éditoriales comme CNN.com ou Cornell.edu. D’un autre côté, si vous avez encore gagné liens de haute qualité, les jugements peuvent être beaucoup plus stricte à partir d’une vue algorithmique.

Semblable à la façon dont la valeur d’une page est jugée en fonction de critères tels que l’originalité et l’expérience qu’elle offre aux visiteurs la recherche, mais démontrera aussi ce principe s’applique à des domaines entiers. Sites qui desservent principalement les non-unique, non-précieux contenu peuvent se trouver incapables de classer, même si classique et hors facteurs de page sont effectuées de façon acceptable. Les moteurs ne veulent simplement pas des milliers de copies de Wikipedia ou sites Web affiliés d’Amazon remplir leur index, et donc utiliser des méthodes algorithmiques et examen manuel pour éviter cela.

Les moteurs de recherche évaluent constamment l’efficacité de leurs propres résultats. Ils mesurent lorsque les utilisateurs cliquent sur un résultat, rapidement touché le bouton “retour” sur leur navigateur, et essayez un autre résultat. Cela indique que le résultat qu’ils servaient ne répondait pas à la requête de l’utilisateur.

Il ne suffit pas de classer pour une requête. Une fois que vous avez gagné votre classement, vous devez le prouver encore et encore.

  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »
  • »