Spamdexing

Spamdexing (auch bekannt als Suchmaschinenspam, Suchmaschinenvergiftung, schwarzer Hut Suchmaschinenoptimierung, Suchen Sie Spam oder Webspam)[1] ist die absichtliche Manipulation von Suchmaschine Indizes. Es beinhaltet eine Reihe von Methoden wie z. Linkaufbau und Wiederholung von nicht verwandten Phrasen, um die Relevanz oder Bekanntheit von indexierten Ressourcen in einer Weise zu manipulieren, die mit dem Zweck des Indexierungssystems unvereinbar ist.[2][3]

Spamdexing könnte als Teil von angesehen werden SuchmaschinenoptimierungObwohl es viele Suchmaschinenoptimierungsmethoden gibt, die die Qualität und das Aussehen des Inhalts von Websites verbessern und Inhalte für viele Benutzer nützlich sind.[4]

Suchmaschinen verwenden eine Vielzahl von Algorithmen Relevanz zu bestimmen Rangfolge. Einige davon umfassen zu bestimmen, ob der Suchbegriff in der angezeigt wird Hauptteil oder URL von a Website. Viele Suchmaschinen prüfen auf Fälle von Spamdexing und entfernen verdächtige Seiten aus ihren Indizes. Außerdem können Suchmotor-Operatoren die Ergebnisse auflistet, die Spamdexing verwenden, möglicherweise als Reaktion auf Benutzerbeschwerden falscher Übereinstimmungen. Der Aufstieg der Spamdexing Mitte der neunziger Jahre machte die führenden Suchmaschinen der Zeit weniger nützlich. Die Verwendung von unethischen Methoden, um die Websites in den Ergebnissen der Suchmaschine höher zu machen, wird in der SEO-Branche (Suchmaschinenoptimierung) häufig als "Black-Hat SEO" bezeichnet. Diese Methoden konzentrieren sich mehr darauf, die Regeln und Richtlinien für Suchmotor-Promotion zu verstoßen. Darüber hinaus führen die Täter das Risiko ein, dass ihre Websites von der schwer bestraft werden Google Panda und Google Penguin Suchregelte Ranking-Algorithmen.[5]

Gemeinsame Spamdexing -Techniken können in zwei breite Klassen eingeteilt werden: Inhaltsspam[4] (oder Begriff Spam) und Link Spam.[3]

Geschichte

Die früheste bekannte Referenz[2] zum Begriff Spamdexing ist von Eric Convey in seinem Artikel "Pornos schlüpft weit zurück im Web", " Der Boston Herald, 22. Mai 1996, wo er sagte:

Das Problem tritt auf, wenn Site -Betreiber ihre Webseiten mit Hunderten von Fremdgräben laden, sodass Suchmaschinen sie unter legitimen Adressen auflisten. Der Prozess wird als "Spamdexing" bezeichnet, eine Kombination von Spam - Der Internetbegriff zum Senden von Nutzern unerwünschte Informationen - und "Indizierung. "[2]

Inhaltsspam

Diese Techniken beinhalten die logische Ansicht, dass eine Suchmaschine über den Inhalt der Seite verfügt. Sie alle zielen auf Varianten der Vektorraummodell Informationen zum Informationsabruf in Textsammlungen.

Keyword -Füllung

Die Keyword -Füllung umfasst die berechnete Platzierung von Schlüsselwörtern auf einer Seite, um die Anzahl der Schlüsselwort, die Vielfalt und Dichte der Seite zu erhöhen. Dies ist nützlich, damit eine Seite für a relevant zu sein scheint Web -Crawler Auf eine Weise, die es wahrscheinlicher macht, gefunden zu werden. Beispiel: ein Promoter von a Ponzi-Schema möchte Web -Surfer auf eine Website gewinnen, auf der er seinen Betrug beworben. Er platziert versteckten Text, der für eine Fanseite einer populären Musikgruppe auf seiner Seite geeignet ist, in der Hoffnung, dass die Seite als Fan -Site aufgeführt wird und viele Besuche von Musikliebhabern erhalten wird. Ältere Versionen von Indexierungsprogrammen zählten einfach, wie oft ein Schlüsselwort erschien, und verwendeten diese, um die Relevanzstufen zu bestimmen. Die meisten modernen Suchmaschinen können eine Seite für das Keyword -Füllen analysieren und feststellen, ob die Frequenz mit anderen Websites übereinstimmt, die speziell für den Anziehen von Suchmaschinenverkehr erstellt wurden. Außerdem werden große Webseiten abgeschnitten, sodass massive Wörterbuchlisten auf einer einzigen Webseite nicht indiziert werden können. (Spammer können diese Einschränkung der Webseitengröße jedoch lediglich umgehen, indem mehrere Webseiten unabhängig oder miteinander verbunden sind.)

Verborgener oder unsichtbarer Text

Nicht verwandt Versteckter Text wird getarn Html Code wie "No Frame" -Abschnitte, ALT -Attribute, nullgroß Divsund "kein Skript" -Abschnitte. Personen, die rotflagierte Websites manuell auf ein Suchmotorunternehmen untersuchen, blockieren eine gesamte Website vorübergehend oder dauerhaft, um auf einigen seiner Seiten einen unsichtbaren Text zu haben. Versteckter Text ist jedoch nicht immer Spamdexing: Er kann auch zur Verbesserung verwendet werden Barrierefreiheit.[6]

Meta-Tag-Füllung

Dies beinhaltet die Wiederholung von Schlüsselwörtern in der Meta -Tagsund Verwendung von Meta -Schlüsselwörtern, die nicht mit dem Inhalt der Website zu tun haben. Diese Taktik ist seit 2005 unwirksam.

Türseiten

"Gateway" oder Türseiten sind minderwertige Webseiten mit sehr wenig Inhalt, die stattdessen mit sehr ähnlichen Schlüsselwörtern und Phrasen gefüllt sind. Sie sind so konzipiert, dass sie in den Suchergebnissen hoch rangieren, aber für Besucher, die nach Informationen suchen, keinen Zweck erfüllen. Eine Türseite hat im Allgemeinen "Klicken Sie hier, um hier einzugeben". Zu diesem Zweck kann auch Autoforenwartungen verwendet werden. Im Jahr 2006 verdrängte Google den Fahrzeughersteller BMW BMW.de.[7]

Schaberstellen

Schaberstellen werden mit verschiedenen Programmen erstellt, mit denen Such-Engine-Ergebnisse oder andere Inhaltsquellen "kratzen" und "Inhalte" für eine Website erstellt werden können. Die spezifische Darstellung von Inhalten auf diesen Websites ist einzigartig, aber lediglich eine Zusammenfassung von Inhalten aus anderen Quellen, oft ohne Erlaubnis. Solche Websites sind im Allgemeinen voll von Werbung (wie z. Pay-per-Click Anzeigen) oder sie den Benutzer auf andere Websites umleiten. Es ist sogar möglich, dass Scraper -Websites Original -Websites für ihre eigenen Informationen und Organisationsnamen übertreffen.

Artikel drehen

Artikel drehen beinhaltet das Umschreiben bestehender Artikel, anstatt lediglich Inhalte von anderen Websites abzukratzen, um Strafen zu vermeiden, die von Suchmaschinen auferlegt wurden doppelter Inhalt. Dieser Prozess wird von angeheuerten Schriftstellern durchgeführt oder mit a automatisiert Thesaurus Datenbank oder a neurales Netzwerk.

Maschinenübersetzung

ähnlich zu Artikel drehen, einige Websites verwenden Maschinenübersetzung Um ihre Inhalte in mehreren Sprachen ohne menschliche Bearbeitung zu rendern, was zu unverständlichen Texten führt, die dennoch weiterhin von Suchmaschinen indiziert werden, wodurch der Verkehr angezogen wird.

Link Spam

Link Spam wird als Verbindungen zwischen Seiten definiert, die aus anderen Gründen als Verdienste vorhanden sind.[8] Link Spam nutzt Link-basierte Ranking-Algorithmen, die vermitteln Websites Höhere Ranglisten Der weitere Link der anderen hochrangigen Websites. Diese Techniken zielen auch darauf ab, andere Link-basierte Ranking-Techniken wie die zu beeinflussen Hits Algorithmus.

Linkfarmen verknüpfen

Link-Farmen sind engmaschige Netzwerke von Websites, die miteinander verlinkt, um die Suchmaschinen-Ranking-Algorithmen auszunutzen. Diese sind auch facettell als bekannt als gegenseitige Bewunderung Gesellschaften.[9] Die Verwendung von Links Farms hat sich durch die Einführung des ersten Panda-Update von Google im Februar 2011 erheblich reduziert, was signifikante Verbesserungen in seinem Spam-Erkennungsalgorithmus führte.

Private Blog -Netzwerke

Blog -Netzwerke (PBNs) sind eine Gruppe maßgeblicher Websites, die als Quelle für kontextbezogene Links verwendet werden, die auf die Hauptwebsite des Eigentümers hinweisen, um ein höheres Suchmaschinenranking zu erzielen. Eigentümer von PBN -Websites verwenden abgelaufene Domänen oder Auktionsdomänen die haben Backlinks von Websites mit hoher Autorität. Google zielte und bestraft PBN -Benutzer seit 2014 mehrfach mit mehreren massiven Deindexing -Kampagnen.[10]

Versteckte Links

Putten Hyperlinks Wo Besucher sie nicht sehen, werden sie verwendet, um zu erhöhen Linkpopularität. Der hervorgehobene Link -Text kann dazu beitragen, eine Webseite höher für die Übereinstimmung mit dieser Phrase zu bewerten.

Sybil -Angriff

A Sybil -Angriff ist das Schmieden mehrerer Identitäten für böswillige Absichten, benannt nach dem Berühmten Dissoziative Identitätsstörung Geduldig "Sybil"Ein Spammer kann mehrere Websites bei verschiedenen Erstellen erstellen Domain Namen dass alles Link zueinander, wie gefälschte Blogs (bekannt als Spam -Blogs).

Spam -Blogs

SPAM -Blogs sind Blogs, die ausschließlich für die kommerzielle Werbung und die Übergabe der Link -Autorität erstellt wurden, um Websites zu zielen. Oft sind diese "Splucks" auf irreführende Weise konzipiert, die die Wirkung einer legitimen Website verleihen, aber bei genauer Betrachtung häufig mit Spinning -Software geschrieben oder mit kaum lesbaren Inhalten sehr schlecht geschrieben wird. Sie sind in der Natur ähnlich, um Farmen zu verknüpfen.

Gastblog Spam

Guest Blog Spam ist der Prozess, in dem Gastblogs auf Websites platziert werden, um einen Link zu einer anderen Website oder Websites zu erhalten. Leider werden diese oft mit legitimen Formen des Gastbloggens mit anderen Motiven verwechselt als mit Links. Diese Technik wurde berühmt von berühmt von Matt Cutts, der öffentlich "Krieg" gegen diese Form von Link Spam erklärte.[11]

Kauf von abgelaufenen Domains

Einige Link -Spammer verwenden abgelaufene Domänen -Crawler -Software oder überwachen DNS -Datensätze für Domains, die in Kürze auslaufen, und kaufen sie dann, wenn sie ablaufen, und ersetzen die Seiten durch Links zu ihren Seiten. Es ist jedoch möglich, aber nicht bestätigt, dass Google die Verbindungsdaten auf abgelaufenen Domänen zurücksetzt. Um alle früheren Google -Ranking -Daten für die Domain zu verwalten, ist es ratsam, dass ein Käufer die Domain schnappt, bevor sie "fallen gelassen" wird.

Einige dieser Techniken können zum Erstellen von a angewendet werden Google Bomb - Das heißt, mit anderen Benutzern zusammenzuarbeiten, um das Ranking einer bestimmten Seite für eine bestimmte Abfrage zu steigern.

Cookie stuffing

Cookie stuffing beinhaltet die Platzierung eines Affiliate Verfolgen Sie das Cookie auf dem Computer eines Website -Besuchers ohne ihr Wissen, wodurch die Person, die das Cookie -Fecting macht, Einnahmen generiert. Dies führt nicht nur zu einem betrügerischen Affiliate -Verkauf, sondern hat auch das Potenzial, andere Partnerkekse zu überschreiben, was im Wesentlichen ihre legitim verdienten Provisionen stiehlt.

Verwenden weltweit geschmeidiger Seiten

Websites, die von Benutzern bearbeitet werden können, können von Spamdexern verwendet werden, um Links zu Spam-Websites einzufügen, wenn die entsprechenden Anti-Spam-Maßnahmen nicht ergriffen werden.

Automatisiert Spambots Kann den benutzerkennbaren Teil einer Website schnell unbrauchbar machen. Programmierer haben eine Vielzahl von automatisierten entwickelt Spam -Präventionstechniken Spambots blockieren oder zumindest verlangsamen.

Spam in Blogs

SPAM in Blogs ist die Platzierung oder Aufforderung von Links zufällig auf anderen Websites, wobei ein gewünschtes Schlüsselwort in den hyperlinkten Text des eingehenden Links eingerichtet wird. Gästebücher, Foren, Blogs und jede Website, die die Kommentare von Besuchern akzeptieren, sind bestimmte Ziele und sind häufig Opfer von Drive-by-Spam, bei denen automatisierte Software unsinnige Beiträge mit Links erzeugt, die normalerweise irrelevant und unerwünscht sind.

Kommentar Spam

Kommentarspam ist eine Form von Link -Spam, die auf Webseiten entstand Wikis, Blogs, und Gästebücher. Es kann problematisch sein, weil Agenten Kann geschrieben werden, die automatisch eine benutzerbearbeitete Webseite wie einen Wikipedia -Artikel aus auswählen und Spam -Links hinzufügen.[12]

Wiki Spam

Wiki Spam ist, wenn ein Spammer die offene Bearbeitbarkeit von Wiki -Systemen verwendet, um Links von der Wiki -Site an die Spam -Site zu platzieren.

Referrer -Protokollspamming

Referrer Spam findet statt, wenn ein Spam -Täter oder der Moderator auf a zugreift Website (das Schiedsrichter), indem ein Link von einer anderen Webseite folgt (die Überweisung), so dass der Schiedsrichter die Adresse des Empfehlers durch den Internetbrowser der Person erhält. Etwas Websites Lassen Sie ein Referrer -Protokoll, das zeigt, welche Seiten mit dieser Site verbunden sind. Durch eine Roboter Greifen Sie nach dem Zufallsprinzip auf viele Websites zugreifen, mit einer Nachricht oder einer bestimmten Adresse als Referer, diese Nachricht oder Internetadresse erscheint dann im Referrer -Protokoll der Websites mit Überweisungsprotokollen. Da einige Web -Suchmaschinen Basis der Bedeutung von Standorten für die Anzahl der verschiedenen Standorte, die mit ihnen verknüpft sind, kann Referrer-Log-Spam die Suchmaschinenrankings der Spammer-Standorte erhöhen. Außerdem können Site -Administratoren, die die Referrer -Protokolleinträge in ihren Protokollen bemerken, dem Link zurück zur Sprecherseite des Spammers folgen.

Gegenmaßnahmen

Aufgrund der großen Menge an Spam, die auf benutzerkennbare Webseiten veröffentlicht wurden, schlug Google ein "Nofollow" -Tag vor, das mit Links eingebettet sein könnte. Eine linkbasierte Suchmaschine wie Google's Seitenrang System verwendet den Link nicht, um die Punktzahl der verknüpften Website zu erhöhen, wenn der Link ein Nofollow -Tag enthält. Dies stellt sicher, dass Spam-Links zu benutzerkennbaren Websites das Ranking der Websites nicht mit Suchmaschinen erhöhen. Nofollow wird von mehreren wichtigen Websites verwendet, einschließlich WordPress, Blogger und Wikipedia.

Andere Arten

Spiegel -Websites

A Spiegelstelle ist das Hosting mehrerer Websites mit konzeptionell ähnlichen Inhalten, aber mit unterschiedlichen Verwendung URLs. Einige Suchmaschinen geben den Ergebnissen einen höheren Rang an, bei dem das Keyword in der URL angezeigt wird.

URL -Umleitung

URL -Umleitung ist die Einnahme des Benutzers auf eine andere Seite ohne seine Intervention, z.B., verwenden Meta -Aktualisierung Stichworte, Blinken, JavaScript, Java oder Serverseite leitet. Jedoch, 301 Umleitungoder dauerhafte Weiterleitung wird nicht als böswilliges Verhalten angesehen.

Tabieren

Tabieren bezieht sich auf mehrere Mittel, um der Suchmotor eine Seite zu bedienen Spinne Das unterscheidet sich von dem von menschlichen Nutzern. Es kann ein Versuch sein, Suchmaschinen in Bezug auf den Inhalt einer bestimmten Website in die Irre zu führen. Das Abbau kann jedoch auch verwendet werden, um die Zugänglichkeit einer Website für Benutzer mit Behinderungen ethisch zu erhöhen oder menschlichen Benutzern Inhalte zu bieten, die Suchmaschinen nicht verarbeiten oder analysieren können. Es wird auch verwendet, um Inhalte basierend auf dem Standort eines Benutzers zu liefern. Google selbst verwendet IP -Lieferung, eine Form des Tarbens, um Ergebnisse zu liefern. Eine andere Form der Tabieren ist Code -Austausch, d.h.Optimieren Sie eine Seite für das Top -Ranking und tauschen Sie dann eine andere Seite an ihrer Stelle aus, sobald ein Top -Ranking erreicht ist. Google bezieht sich auf diese Art von Umleitungen als Hinterhältige Weiterleitungen.[13]

Gegenmaßnahmen

Seitentlassung nach Suchmaschine

Spamdexed -Seiten werden manchmal von der Suchmaschine aus Suchergebnissen beseitigt.

Seitungsauslassung durch den Benutzer

Benutzer können Suchbetreiber für die Filterung einsetzen. Für Google wird ein Schlüsselwort "-" (minus) Websites, das das Schlüsselwort auf ihren Seiten oder in der URL der Seiten der Seiten des Suchergebnisses enthält, weggelassen. Beispielsweise beseitigt die Suche "-<unerwünschte Seite>" Websites, die auf den Seiten "<unerwünschte Seite>" und auf den Seiten, deren URL "<unerwünschte Seite>" enthält, enthält.

Benutzer könnten auch die verwenden Google Chrome Erweiterung "Personal Blocklist (von Google)", die 2011 von Google als Teil von Gegenmaßnahmen gegen gestartet wurde Inhaltszucht.[14][15] Über die Erweiterung können Benutzer eine bestimmte Seite oder eine Reihe von Seiten blockieren, wenn sie in ihren Suchergebnissen angezeigt werden. Ab 2021 scheint die ursprüngliche Erweiterung entfernt zu werden, obwohl ähnlich funktionierende Erweiterungen verwendet werden können.

Siehe auch

Verweise

  1. ^ SearchEngineland, Danny Sullivans Video Erklärung des Suchmaschinenspames, Oktober 2008 Archiviert 2008-12-17 bei der Wayback -Maschine . Abgerufen 2008-11-13.
  2. ^ a b c "Word Spy - Spamdexing" (Definition), März 2003, Webseite:WordSpy-Spamdexing Archiviert 2014-07-18 bei der Wayback -Maschine.
  3. ^ a b Gyöngyi, Zoltán; Garcia-Molina, Hector (2005), "Web -Spam -Taxonomie" (PDF), Proceedings des ersten internationalen Workshops zum Abrufen von übergespezifischen Informationen im Web (AirWeb), 2005 in der 14. International World Wide Web Conference (WWW 2005), 10. Mai (TUE) -14 (SAT), 2005, Nippon Convention Center (Makuhari Messe ), Chiba, Japan., New York, NY: ACM Press, ISBN 1-59593-046-9, archiviert (PDF) vom Original am 2020-02-15, abgerufen 2007-10-05
  4. ^ a b Ntoulas, Alexandros; Manasse, Mark; Najork, Marc; Fetterly, Dennis (2006), "Spam -Webseiten durch Inhaltsanalyse erkennen", Die 15. International World Wide Web Conference (WWW 2006) 23. bis 26. Mai 2006, Edinburgh, Schottland., New York, NY: ACM Press, ISBN 1-59593-323-9
  5. ^ Smarty, Ann (2008-12-17). "Was ist Blackhat Seo? 5 Definitionen". Suchmaschinenjournal. Archiviert vom Original am 2012-06-21. Abgerufen 2012-07-05.
  6. ^ Montti, Roger (2020-10-03). "Alles, was Sie über versteckten Text & SEO wissen müssen". Suchmaschinenjournal. Archiviert vom Original am 2021-11-22. Abgerufen 2021-11-22.
  7. ^ Segal, David (2011-02-13). "Die schmutzigen kleinen Geheimnisse der Suche". Die NY -Zeiten. Archiviert vom Original am 2012-07-23. Abgerufen 2012-07-03.
  8. ^ Davison, Brian (2000), "Erkennen nepotistischer Links im Web" (PDF), AAAI-2000 Workshop über künstliche Intelligenz für die Websuche, Boston: AAAI Press, S. 23–28, archiviert (PDF) vom Original am 2007-04-18, abgerufen 2007-10-23
  9. ^ "Suchmaschinen: Technologie, Gesellschaft und Wirtschaft - Marti Hearst, 29. August 2005" (PDF). Berkeley.edu. Archiviert (PDF) Aus dem Original am 8. Juli 2007. Abgerufen Der 1. August, 2007.
  10. ^ "Google zielt auf Websites, die private Blog -Netzwerke mit manuellen Aktionsranking -Strafen verwenden". Suchmaschinenland. 2014-09-23. Archiviert vom Original am 2016-11-22. Abgerufen 2016-12-12.
  11. ^ "Der Verfall und Herbst des Gastbloggens für SEO". Mattcutts.com. 20. Januar 2014. Archiviert Aus dem Original am 3. Februar 2015. Abgerufen 11. Januar 2015.
  12. ^ Mischne, Gilad; David Carmel; Ronny Lempel (2005). "Blockieren von Blog -Spam mit Sprachmodell -Meinungsverschiedenheit" (PDF). Proceedings des ersten internationalen Workshops zum Abrufen von kontroversen Informationen im Internet. Archiviert (PDF) vom Original am 07.07.1001. Abgerufen 2007-10-24.
  13. ^ "Sneaky Redirects - Suchkonsole Hilfe". Support.google.com. Archiviert vom Original am 2015-05-18. Abgerufen 2015-05-14.
  14. ^ "Google 検索 結果 の な サイト を 非 表示 & 通報 し 検索 品質 アップ に 貢献 できる できる できる できる 公式 chrom 拡張 機能 Personal Blocklist」 ". gigazine.net. Archiviert vom Original am 2022-05-27. Abgerufen 2017-10-06.
  15. ^ "Neu: Blockseiten aus Google -Ergebnissen mit der" Personal Blocklist "von Chrome - Suchmaschinenland". searchEngineland.com. 14. Februar 2011. Archiviert Aus dem Original am 6. Oktober 2017. Abgerufen 6. Oktober 2017.

Externe Links