Suchmaschinenoptimierung
Suchmaschinenoptimierung (SEO) ist der Prozess der Verbesserung der Qualität und Quantität von Website -Verkehr zu einem Webseite oder ein Website aus Suchmaschinen.[1] SEO zielt auf unbezahlten Verkehr (bekannt als "natürlich" oder "bekannt"organisch"Ergebnisse) und nicht direkter Verkehr oder bezahlter Verkehr. Der unbezahlte Verkehr kann aus verschiedenen Arten von Suchanfragen stammen, einschließlich Bildersuche, Videosuche, Akademische Suche,[2] Nachrichtensuche und branchenspezifische vertikale Suche Motoren.
Als an Internet Marketing Strategie, SEO, berücksichtigt, wie Suchmaschinen funktionieren, die Computerprogrammierte Algorithmen Das bestimmt Suchmaschinenverhalten, was Leute suchen, die tatsächlichen Suchbegriffe oder Schlüsselwörter In Suchmaschinen eingegeben und welche Suchmaschinen von ihrer gezielten Zielgruppe bevorzugt werden. SEO wird durchgeführt Seite der Suchmaschinenergebnisse (SERP). Diese Besucher können dann möglicherweise in Kunden umgewandelt werden.[3]
Geschichte
Webmaster und Inhaltsanbieter begannen Mitte der neunziger Jahre, Websites für Suchmaschinen zu optimieren, da die ersten Suchmaschinen die frühen katalogisieren Netz. Zunächst mussten alle Webmaster nur die Adresse einer Seite einreichen oder URL, zu den verschiedenen Motoren, die eine senden würden Web -Crawler zu kriechen Diese Seite extrahieren Links zu anderen Seiten daraus und geben Informationen auf der Seite zurück indiziert.[4] Der Prozess beinhaltet eine Suchmaschinenspinne, die eine Seite herunterlädt und auf dem eigenen Server der Suchmaschine speichert. Ein zweites Programm, bekannt als ein Indexer, extrahiert Informationen über die Seite, z. B. die Wörter, die sie enthalten, wo sie sich befinden, und jedes Gewicht für bestimmte Wörter sowie alle Links, die die Seite enthält. Alle diese Informationen werden dann zu einem späteren Zeitpunkt in einen Scheduler für das Kriechen eingebaut.
Website -Eigentümer erkannten den Wert eines Hochs Rangfolge und Sichtbarkeit in Suchmaschinenergebnissen,[5] eine Gelegenheit für beide schaffen weißer Hut und schwarzer Hut SEO -Praktizierende. Laut Industrieanalysten Danny SullivanDer Ausdruck "Suchmaschinenoptimierung" wurde wahrscheinlich 1997 verwendet. Sullivan schreibt Bruce Clay als einer der ersten Personen zu, die den Begriff populär gemacht haben.[6]
Frühe Versionen der Suche Algorithmen stützte sich auf von Webmaster bereitgestellte Informationen wie das Schlüsselwort Meta -Tag oder Indexdateien in Motoren wie Aliweb. Meta -Tags bieten eine Anleitung für den Inhalt der einzelnen Seite. Die Verwendung von Metadaten zu Indexseiten war jedoch weniger als zuverlässig, da die Auswahl der Schlüsselwörter des Webmaster im Meta -Tag möglicherweise eine ungenaue Darstellung des tatsächlichen Inhalts der Website sein könnte. Fehlerhafte Daten in Meta -Tags wie solche, die nicht genau, vollständig oder fälschlicherweise zugeschrieben wurden, erzeugten das Potenzial, dass Seiten bei irrelevanten Suchvorgängen falsch charakterisiert werden.[7][zweifelhaft ] Webinhalteanbieter manipulierten auch einige Attribute innerhalb der Html Quelle einer Seite, um in Suchmaschinen gut zu rennen.[8] Bis 1997 erkannten Suchmaschinendesigner, dass Webmaster Anstrengungen unternommen haben, um in ihrer Suchmaschine gut zu rangieren, und dass einige Webmaster gerade waren ihre Rangliste manipulieren In Suchergebnissen durch Füllen von Seiten mit übermäßigen oder irrelevanten Schlüsselwörtern. Frühe Suchmaschinen, wie z. Altavista und InfoseekEinstellte ihre Algorithmen, um zu verhindern, dass Webmaster Ranglisten manipuliert.[9]
Indem man sich stark auf Faktoren stützt wie z. SchlüsselwortdichteDie frühen Suchmaschinen litten ausschließlich in der Kontrolle eines Webmeisters unter Missbrauch und Rangmanipulation. Um ihren Nutzern bessere Ergebnisse zu erzielen, mussten sich Suchmaschinen anpassen, um ihre zu gewährleisten Ergebnisseiten zeigten die relevantesten Suchergebnisse, anstatt nicht verwandte Seiten, die mit zahlreichen Schlüsselwörtern von skrupellosen Webmeistern gefüllt sind. Dies bedeutete, sich von einer starken Abhängigkeit von der Begriffsdichte zu einem ganzheitlicheren Prozess für die Bewertung semantischer Signale zu bewegen.[10] Da der Erfolg und die Popularität einer Suchmaschine durch ihre Fähigkeit bestimmt werden, die relevantesten Ergebnisse für eine bestimmte Suche zu erzielen, können schlechte Qualität oder irrelevante Suchergebnisse dazu führen, dass Benutzer andere Suchquellen finden. Suchmaschinen reagierten, indem sie komplexere Ranking -Algorithmen entwickelten, wobei zusätzliche Faktoren berücksichtigt wurden, die für die Manipulation von Webmeistern schwieriger waren.
Unternehmen, die übermäßig aggressive Techniken einsetzen, können ihre Kundenwebsites aus den Suchergebnissen verboten. Im Jahr 2005 die Wallstreet Journal über ein Unternehmen gemeldet, Verkehrskraft, die angeblich Hochrisikotechniken verwendete und diese Risiken nicht an ihre Kunden offengelegt hat.[11] Verdrahtet Die Zeitschrift berichtete, dass dasselbe Unternehmen den Blogger und Seo Aaron Wall verklagte, weil er über das Verbot geschrieben hat.[12] Google Matt Cutts Später bestätigte Google, dass Google tatsächlich Verkehrskraft und einige seiner Kunden verboten hat.[13]
Einige Suchmaschinen haben sich auch an die SEO -Branche gewandt und sind häufige Sponsoren und Gäste bei SEO -Konferenzen, Webchats und Seminaren. Große Suchmaschinen bieten Informationen und Richtlinien zur Unterstützung der Website -Optimierung.[14][15] Google hat a Sitemaps Programm zum Erlernen von Webmastern, um zu erfahren, ob Google Probleme hat, ihre Website zu indizieren, und auch Daten zum Google -Datenverkehr auf der Website bereitgestellt.[16] Bing Webmaster Tools Bietet Webmaster eine Möglichkeit, eine Sitemap- und Web -Feeds einzureichen, und ermöglicht Benutzern die Ermittlung der "Crawl -Rate" und den Webseiten -Indexstatus.
Im Jahr 2015 wurde berichtet, dass das Google Entwicklung und Förderung der mobilen Suche als Schlüsselfunktion in zukünftigen Produkten. Als Reaktion darauf verfolgten viele Marken einen anderen Ansatz für ihre Internet -Marketing -Strategien.[17]
Beziehung zu Google
1998 zwei Doktoranden bei Universität in Stanford, Larry Seite und Sergey Brin, entwickelte "BackRub", eine Suchmaschine, die sich auf einen mathematischen Algorithmus stützte, um die Bekanntheit von Webseiten zu bewerten. Die vom Algorithmus berechnete Zahl, Seitenrang, ist eine Funktion der Menge und Stärke von eingebettete Verknüpfungen.[18] PageRank schätzt die Wahrscheinlichkeit, dass eine bestimmte Seite von einem Webbenutzer erreicht wird, der zufällig im Web surft und Links von einer Seite zu einer anderen folgt. Tatsächlich bedeutet dies, dass einige Links stärker sind als andere, da eine höhere PageRank -Seite vom zufälligen Web -Surfer eher erreicht wird.
Page und Brin gründeten Google 1998.[19] Google zog eine loyale Anhängerschaft unter der wachsenden Zahl von an Internet Benutzer, die ihr einfaches Design mochten.[20] Off-Page-Faktoren (wie PageRank- und Hyperlink-Analyse) wurden sowohl als On-Page-Faktoren (z. B. Schlüsselwortfrequenz, Meta -Tags, Überschriften, Links und Standortstruktur), um Google zu ermöglichen, die Art der Manipulation zu vermeiden, die in Suchmaschinen zu sehen ist, die nur On-Page-Faktoren für ihre Ranglisten berücksichtigten. Obwohl PageRank schwieriger war SpielWebmaster hatten bereits Tools und Pläne für Linkbuilding entwickelt, um die zu beeinflussen Inktomi Suchmaschine und diese Methoden erwiesen sich ähnlich für Gaming PageRank. Viele Websites konzentrierten sich auf den Austausch, Kauf und Verkauf von Links, oft massiv. Einige dieser Programme, oder Linkfarmen verknüpfen, beinhaltete die Schaffung von Tausenden von Standorten für den einzigen Zweck von Linkspamming.[21]
Bis 2004 hatten Suchmaschinen eine breite Palette nicht bekannt gegebener Faktoren in ihre Ranking -Algorithmen aufgenommen, um die Auswirkungen der Verbindungsmanipulation zu verringern. Im Juni 2007, Die New York Times' Saul Hansell gab an, dass Google -Rang -Websites mit mehr als 200 verschiedenen Signalen Websites mit Ranks -Sites angegeben haben.[22] Die führenden Suchmaschinen, Google, Bing, und YahooStellen Sie die Algorithmen, die sie verwenden, nicht für Seiten offen. Einige SEO -Praktiker haben unterschiedliche Ansätze zur Optimierung der Suchmaschinen -Optimierung untersucht und ihre persönlichen Meinungen geteilt.[23] Patente im Zusammenhang mit Suchmaschinen können Informationen bereitstellen, um Suchmaschinen besser zu verstehen.[24] Im Jahr 2005 begann Google mit der Personalisierung von Suchergebnissen für jeden Benutzer. Abhängig von ihrer Geschichte früherer Suchanfragen stellte Google die Ergebnisse für protokollierte Benutzer aus.[25]
2007 kündigte Google eine Kampagne gegen bezahlte Links an, die PageRank übertragen.[26] Am 15. Juni 2009 gab Google bekannt, dass sie Maßnahmen ergriffen hatten, um die Auswirkungen der PageRank -Bildhauerei durch die Verwendung des Nofollow Attribut für Links. Matt CuttsEin bekannter Software-Ingenieur bei Google kündigte an, dass Google Bot keine Nofollow-Links mehr auf die gleiche Weise behandeln würde, um SEO-Dienstanbieter daran zu hindern, Nofollow für die PageRank-Skulption zu verwenden.[27] Infolge dieser Änderung führte die Verwendung von Nofollow zur Verdunstung der PageRank. Um dies oben zu vermeiden JavaScript und erlauben so die PageRank -Skulption. Zusätzlich wurden mehrere Lösungen vorgeschlagen, die die Verwendung von enthalten iframes, Blinken und JavaScript.[28]
Im Dezember 2009 gab Google bekannt, dass es den Web -Search -History aller Benutzer verwenden würde, um die Suchergebnisse zu füllen.[29] Am 8. Juni 2010 ein neues Web -Indexierungssystem namens Google Koffein wurde vorgestellt. Google Caffein wurde so konzipiert, dass Benutzer nach der Veröffentlichung Nachrichtenergebnisse, Forum -Posts und andere Inhalte nach dem Veröffentlichung viel früher als zuvor finden können. Es war eine Änderung der Art und Weise, wie Google seinen Index aktualisiert hat, um die Dinge bei Google schneller als zuvor anzuzeigen. Laut Carrie Grimes, dem Software -Ingenieur, der Koffein für Google ankündigte, "liefert Koffein 50 Prozent frischere Ergebnisse für Websuche als unser letzter Index ..."[30] Google Instant, Echtzeit-Suche, wurde Ende 2010 eingeführt, um die Suchergebnisse zeitnaher und relevanter zu machen. Historisch gesehen haben Site -Administratoren Monate oder sogar Jahre damit verbracht, eine Website zu optimieren, um die Suchrankings zu erhöhen. Mit dem Wachstum der Popularität von Social -Media -Websites und -Blogs haben die führenden Motoren ihre Algorithmen geändert, damit frische Inhalte innerhalb der Suchergebnisse schnell rangieren können.[31]
Im Februar 2011 kündigte Google die an Panda Update, das Websites bestraft, die Inhalte enthalten, die von anderen Websites und Quellen doppelt sind. Historisch gesehen haben Websites Inhalte voneinander kopiert und in Suchmaschinenranking profitiert, indem sie sich an dieser Praxis einlassen. Google hat jedoch ein neues System implementiert, das Websites bestraft, deren Inhalt nicht einzigartig ist.[32] Das 2012 Google Penguin versuchte, Websites zu bestrafen, auf denen manipulative Techniken verwendeten, um ihre Rangliste in der Suchmaschine zu verbessern.[33] Obwohl Google Penguin als Algorithmus vorgestellt wurde, der auf Web -Spam kämpfte, konzentriert es sich wirklich auf Spammy -Links[34] Durch das Messen der Qualität der Websites stammen die Links. Das 2013 Google Hummingbird Das Update enthielt eine Algorithmusänderung, die zur Verbesserung der natürlichen Sprachverarbeitung von Google und dem semantischen Verständnis von Webseiten entwickelt wurde. Das Sprachverarbeitungssystem von Hummingbird fällt unter den neu anerkannten Begriff von "Konversationsuche"Wo das System auf jedes Wort in der Abfrage mehr Aufmerksamkeit schenkt, um den Seiten besser mit der Bedeutung der Abfrage als mit einigen Wörtern anzupassen.[35] In Bezug auf die Änderungen, .
Im Oktober 2019 gab Google bekannt, dass sie sich bewerben würden Bert Modelle für Englischanfragen für englische Sprache in den USA. Bidirektionale Encoder -Darstellungen von Transformers (Bert) war ein weiterer Versuch von Google, ihre natürliche Sprachverarbeitung zu verbessern, diesmal jedoch, um die Suchanfragen ihrer Benutzer besser zu verstehen.[36] In Bezug auf die Suchmaschinenoptimierung beabsichtigte Bert, die Benutzer einfacher mit relevanten Inhalten zu verbinden und die Qualität des Datenverkehrs zu erhöhen, die auf Websites gelangen, die auf der Seite der Suchmaschinenergebnisse eingestuft werden.
Methoden
Indiziert werden
Die führenden Suchmaschinen wie Google, Bing und Yahoo! Kriecher Seiten für ihre algorithmischen Suchergebnisse finden. Seiten, die von anderen indexierten Seiten von Suchmaschinen verknüpft sind, müssen nicht eingereicht werden, da sie automatisch gefunden werden. Das Yahoo! Verzeichnis und DMOZ, zwei Hauptverzeichnisse, die 2014 bzw. 2017 geschlossen wurden, erforderten sowohl manuelle Einreichung als auch die redaktionelle Überprüfung des Menschen.[37] Google bietet an Google -Suchkonsolefür welches ein xml Seitenverzeichnis Feed kann kostenlos erstellt und eingereicht werden, um sicherzustellen, dass alle Seiten gefunden werden, insbesondere Seiten, die nicht durch automatische Verfolgung von Links erfasst werden können[38] Zusätzlich zu ihrer URL -Einreichungskonsole.[39] Yahoo! Früher betrieben ein bezahlter Einreichungsdienst, der garantiert nach einem Krabbeln Kosten pro Klick;[40] Diese Praxis wurde jedoch 2009 eingestellt.
Suchmaschine Crawler können sich eine Reihe verschiedener Faktoren ansehen, wenn Krabbeln eine Seite. Nicht jede Seite wird von Suchmaschinen indiziert. Die Entfernung der Seiten vom Wurzelverzeichnis eines Standorts kann auch ein Faktor dafür sein, ob Seiten gekrabbelt werden oder nicht.[41]
Heutzutage suchen die meisten Menschen mit einem mobilen Gerät bei Google.[42] Im November 2016 kündigte Google eine wesentliche Änderung der Art und Weise an, wie sie Websites kriechen, und begann, ihren Index Mobile-First zu machen, was bedeutet, dass die mobile Version einer bestimmten Website zum Ausgangspunkt für das ist, was Google in seinem Index enthält.[43] Im Mai 2019 aktualisierte Google die Rendering -Engine seines Crawlers als die neueste Version von Chromium (74 zum Zeitpunkt der Ankündigung). Google gab an, dass sie die regelmäßig aktualisieren würden Chrom Motor in die neueste Version bringen.[44] Im Dezember 2019 begann Google mit der Aktualisierung der Benutzer-Agent-Zeichenfolge ihres Crawlers, um die neueste Chrome-Version widerzuspiegeln, die von ihrem Rendering-Service verwendet wird. Die Verzögerung bestand darin, Webmaster Zeit zu ermöglichen, ihren Code zu aktualisieren, der auf bestimmte Bot-Benutzer-Agent-Zeichenfolgen reagierte. Google leitete Bewertungen und war zuversichtlich, dass die Auswirkungen geringfügig sein würden.[45]
Krabbeln verhindern
Um unerwünschte Inhalte in den Suchindizes zu vermeiden, können Webmaster Spinnen anweisen, bestimmte Dateien oder Verzeichnisse nicht über den Standard zu kriechen Robots.txt Datei im Stammverzeichnis der Domäne. Zusätzlich kann eine Seite explizit aus der Datenbank einer Suchmaschine mit a ausgeschlossen werden Meta -Tag Spezifisch für Roboter (normalerweise <meta name = "Roboter" content = "noIndex">). Wenn eine Suchmaschine eine Site besucht, befindet sich der Robots.txt in der Wurzelverzeichnis ist die erste krabbende Datei. Die Robots.txt -Datei wird dann analysiert und weist den Roboter an, welche Seiten nicht gekrabbelt werden sollen. Da ein Suchmaschinen -Crawler eine zwischengespeicherte Kopie dieser Datei beibehält, kann sie gelegentlich Seiten kriechen, die ein Webmaster nicht wünscht. Zu den Seiten, die in der Regel gekrabbelt werden, gehören loginspezifische Seiten wie Einkaufswagen und benutzerspezifische Inhalte wie Suchergebnisse von internen Suchvorgängen. Im März 2007 warnte Google Webmaster, dass sie die Indexierung interner Suchergebnisse verhindern sollten, da diese Seiten als Suchspam angesehen werden.[46] Im Jahr 2020 Google Sonnenunterlage Der Standard (und die offene Quelle ihren Code) und nun als Hinweis nicht als Richtlinie behandelt. Um sicherzustellen, dass die Seiten nicht indexiert werden, sollte ein Roboter-Meta-Tag auf Seitenebene enthalten sein.[47]
Zunehmende Bedeutung
Eine Vielzahl von Methoden kann die Bedeutung einer Webseite innerhalb der Suchergebnisse erhöhen. Kreuzverknüpfung Zwischen den Seiten derselben Website, um mehr Links zu wichtigen Seiten bereitzustellen, können die Sichtbarkeit verbessern. Durch das Seitendesign vertrauen Benutzer einer Website und möchten bleiben, sobald sie sie finden. Wenn Menschen von einer Website abprallen, zählt dies gegen die Website und wirkt sich auf ihre Glaubwürdigkeit aus.[48] Das Schreiben von Inhalten, die häufig durchsuchte Keyword -Phrasen enthalten, um für eine Vielzahl von Suchabfragen relevant zu sein, erhöht die Verkehrsdaten neigen dazu. Das Aktualisieren von Inhalten, um Suchmaschinen häufig zurückzuhalten, kann einem Standort zusätzliches Gewicht verleihen. Hinzufügen relevanter Keywords zu der Metadaten einer Webseite, einschließlich der Titel -Tag und Meta -Beschreibung, neigt dazu, die Relevanz der Suchlisten einer Website zu verbessern und so den Verkehr zu erhöhen. URL canonicalization von Webseiten, die über mehrere URLs zugegriffen werden können, nutzen die Kanonisches Linkelement[49] oder über 301 Weiterleitungen Sie können sicherstellen, dass Links zu verschiedenen Versionen der URL alle zum Link -Popularitätswert der Seite zählen. Diese sind als eingehende Links bekannt, die auf die URL hinweisen und auf die Beliebtheit des Seitenverbaus oder auf die Glaubwürdigkeit einer Website ausgewirren können. [48]
In letzter Zeit hat Google den folgenden Elementen für SERP (Suchmaschinenranking -Position) mehr Priorität.
- HTTPS -Version (sichere Site)
- Seitengeschwindigkeit
- Strukturierte Daten
- Mobile Kompatibilität
- Verstärker (beschleunigte mobile Seiten)
- Bert
Weißer Hut gegen schwarze Huttechniken
SEO -Techniken können in zwei breite Kategorien eingeteilt werden: Techniken, die Suchmaschinenunternehmen als Teil des guten Designs ("White Hat") empfehlen, und diese Techniken, von denen Suchmaschinen nicht zustimmen ("Black Hat"). Die Suchmaschinen versuchen, die Wirkung des letzteren unter ihnen zu minimieren Spamdexing. Branchenkommentatoren haben diese Methoden und die Praktiker, die sie beschäftigen, als entweder klassifiziert weißer Hut SEO, oder schwarzer Hut SEO.[50] Weiße Hüte neigen dazu, Ergebnisse zu erzielen, die lange dauern, während schwarze Hüte davon ausgehen, dass ihre Standorte möglicherweise entweder vorübergehend oder dauerhaft verboten werden, sobald die Suchmaschinen entdecken, was sie tun.[51]
Eine SEO -Technik wird als weißer Hut angesehen, wenn sie den Richtlinien der Suchmaschinen entspricht und keine Täuschung beinhaltet. Als Suchmaschinenrichtlinien[14][15][52] sind nicht als eine Reihe von Regeln oder Geboten geschrieben, dies ist eine wichtige Unterscheidung. Bei SEO von White Hat SEO geht es nicht nur darum, Richtlinien zu befolgen, sondern auch darum, sicherzustellen, dass der Inhalt, der eine Suchmaschinenindie und anschließend rangiert, der gleiche Inhalt ist, den ein Benutzer sehen wird. White Hat Theads wird im Allgemeinen als Erstellen von Inhalten für Benutzer und nicht für Suchmaschinen zusammengefasst und dann diesen Inhalt für die Online -Spinnenalgorithmen leicht zugänglich gemacht, anstatt zu versuchen, den Algorithmus von seinem beabsichtigten Zweck auszutricksen. White Hat SEO ähnelt in vielerlei Hinsicht der Webentwicklung, die die Zugänglichkeit fördert.[53] Obwohl die beiden nicht identisch sind.
Schwarzer Hut seo Versuche, die Rangliste auf eine Weise zu verbessern, die von den Suchmaschinen missbilligt wird oder Täuschung beinhaltet. Eine schwarze Huttechnik verwendet versteckten Text, entweder als text gefärbte ähnlich dem Hintergrund, in einem unsichtbaren div, oder positioniertes außerhalb des Bildschirms. Eine andere Methode gibt eine andere Seite an, je nachdem, ob die Seite von einem menschlichen Besucher oder einer Suchmaschine angefordert wird, eine Technik, die als bekannt ist Tabieren. Eine andere Kategorie, die manchmal verwendet wird, ist graue Hut seo. Dies liegt zwischen schwarzen Hut und weißen Hut -Ansätzen, bei denen die angewandten Methoden vermeiden, dass die Website bestraft wird, aber nicht bei der Erzeugung des besten Inhalts für Benutzer handelt. Grey Hat SEO konzentriert sich ganz auf die Verbesserung der Suchmaschinenrankings.
Suchmaschinen können Websites bestrafen, die sie mit schwarzen oder grauen Hutmethoden entdecken, entweder durch Reduzieren ihrer Rangliste oder die Beseitigung ihrer Auflistungen aus ihren Datenbanken insgesamt. Solche Strafen können entweder automatisch von den Suchmaschinenalgorithmen oder durch eine manuelle Überprüfung der Website angewendet werden. Ein Beispiel war die Google -Entfernung von beiden Februar 2006 beider BMW Deutschland und Ricoh Deutschland für die Verwendung von Täuschungspraktiken.[54] Beide Unternehmen entschuldigten sich jedoch schnell, reparierten die beleidigenden Seiten und wurden auf die Seite der Suchmaschinenergebnisse von Google wiederhergestellt.[55]
Als Marketingstrategie
SEO ist keine angemessene Strategie für jede Website, und andere Internet -Marketing -Strategien können effektiver sein, z. B. bezahlte Werbung durch Pay pro Klick (PPC) Kampagnen, abhängig von den Zielen des Site -Betreibers. Suchmaschinenmarketing (SEM) ist die Praxis des Entwerfens, Ausführens und Optimierens von Suchmaschinen -Anzeigenkampagnen. Sein Unterschied zu SEO wird am einfachsten als Differenz zwischen bezahlten und unbezahlten Prioritätsranking in den Suchergebnissen dargestellt. SEM konzentriert sich mehr auf Bedeutung als auf Relevanz; Website -Entwickler sollten SEM mit größter Bedeutung betrachten, um die Sichtbarkeit zu berücksichtigen, da die meisten zu den primären Auflistungen ihrer Suche navigieren.[56] Eine erfolgreiche Internet-Marketing-Kampagne kann auch davon abhängen, qualitativ hochwertige Webseiten zu erstellen, um Internetnutzer zu engagieren und zu überzeugen, einrichten Analyse Programme, mit denen Websitebesitzer die Ergebnisse messen und die eines Standorts verbessern können Wechselkurs.[57] Im November 2015 veröffentlichte Google eine vollständige 160-seitige Version seiner Richtlinien für die Suchqualität für die Öffentlichkeit.[58] was eine Verschiebung ihres Fokus auf "Nützlichkeit" und zeigte Mobile lokale Suche. In den letzten Jahren ist der mobile Markt explodiert und die Verwendung von Desktops überholt, wie in der durch Statcounter Im Oktober 2016 analysierten sie 2,5 Millionen Websites und stellten fest, dass 51,3% der Seiten von einem mobilen Gerät geladen wurden.[59] Google war eines der Unternehmen, die die Popularität der mobilen Nutzung nutzen, indem sie Websites dazu ermutigt, ihre zu nutzen Google -SuchkonsoleDer mobilfreundliche Test, mit dem Unternehmen ihre Website an den Suchmaschinenergebnissen messen und feststellen können, wie benutzerfreundlich ihre Websites sind. Je näher die Schlüsselwörter zusammen sind, desto entsprechend der Schlüsselbegriffe verbessert sich das Ranking. [48]
SEO kann eine angemessene erzeugen Return on Investment. Suchmaschinen werden jedoch nicht für den organischen Suchverkehr bezahlt, ihre Algorithmen ändern sich und es gibt keine Garantien für fortgesetzte Überweisungen. Aufgrund dieser mangelnden Garantie und der Unsicherheit kann ein Unternehmen, das stark auf Suchmaschinenverkehr angewiesen ist, schwere Verluste erleiden, wenn die Suchmaschinen aufhören, Besucher zu senden.[60] Suchmaschinen können ihre Algorithmen ändern und das Suchmaschinenranking einer Website beeinflussen, was möglicherweise zu einem schwerwiegenden Verkehrsverlust führt. Laut Eric Schmidt, CEO von Google, hat Google im Jahr 2010 über 500 Algorithmusänderungen vorgenommen - fast 1,5 pro Tag.[61] Es gilt für Website -Betreiber als kluge Geschäftspraxis, sich von der Abhängigkeit vom Suchmaschinenverkehr zu befreien.[62] Zusätzlich zur Zugänglichkeit in Bezug auf Webcrawler (oben angesprochen), Benutzer Web -Barrierefreiheit ist für SEO immer wichtiger geworden.
Internationale Märkte
Optimierungstechniken sind stark auf die dominierenden Suchmaschinen auf dem Zielmarkt abgestimmt. Die Marktanteile der Suchmaschinen variieren von Markt zu Markt, ebenso wie der Wettbewerb. In 2003, Danny Sullivan gab an, dass Google rund 75% aller Suchanfragen darstellte.[63] In Märkten außerhalb der USA ist der Anteil von Google häufig größer und Google bleibt ab 2007 die dominierende Suchmaschine weltweit.[64] Ab 2006 hatte Google einen Marktanteil von 85 bis 90% in Deutschland.[65] Während es zu dieser Zeit Hunderte von SEO -Firmen in den USA gab, gab es in Deutschland nur etwa fünf.[65] Ab Juni 2008 lag der Marktanteil von Google in Großbritannien bei fast 90%. Hitwise.[66] Dieser Marktanteil wird in einer Reihe von Ländern erreicht.
Ab 2009 gibt es nur wenige große Märkte, in denen Google nicht die führende Suchmaschine ist. In den meisten Fällen ist es hinter einem lokalen Spieler zurückgeblieben, wenn Google nicht in einem bestimmten Markt führt. Die bemerkenswertesten Beispielmärkte sind China, Japan, Südkorea, Russland und die Tschechische Republik, wo jeweils Baidu, Yahoo! Japan, Naver, Yandex und Seznam sind Marktführer.
Eine erfolgreiche Suchoptimierung für internationale Märkte kann professionell erfordern Übersetzung von Webseiten, Registrierung eines Domainnamens mit a Top-Level-Domain auf dem Zielmarkt und Web-Hosting das bietet einen lokalen IP Adresse. Andernfalls sind die grundlegenden Elemente der Suchoptimierung im Wesentlichen gleich, unabhängig von der Sprache.[65]
Rechtliche Präzedenzfälle
Am 17. Oktober 2002 versuchte der gesuchte Klage in der eingereichten Klage in der Bezirksgericht der Vereinigten Staaten, Western District of Oklahoma, gegen die Suchmaschine Google. Die Behauptung von Searching war, dass die Taktik von Google, um Spamdexing zu verhindern, a unerlaubte Einmischung mit vertraglichen Beziehungen. Am 27. Mai 2003 erteilte das Gericht den Antrag von Google auf die Abweisung der Beschwerde, weil die Suche "keine Anspruch auf die Erleichterung erteilt werden kann".[67][68]
Im März 2006 reichte KindStart eine Klage gegen Google wegen Suchmaschinenrangliste ein. Die Website von KindStart wurde vor der Klage aus dem Google -Index entfernt und der Datenverkehr auf die Website um 70%gesunken. Am 16. März 2007 die Bezirksgericht der Vereinigten Staaten für den nördlichen Distrikt von Kalifornien (San Jose Division) entließ die Beschwerde von KinderStart ohne Erlaubnis, um zu ändern, und erteilte den Antrag von Google teilweise auf Regel 11 Sanktionen gegen den Anwalt von Kindstart, die ihn verpflichtet, einen Teil der Rechtskosten von Google zu zahlen.[69][70]
Siehe auch
- Blog -Netzwerk
- Konkurrent zurücklinken
- Liste der Suchmaschinen
- Suchmaschinenmarketing
- Search neutrality, das Gegenteil der Suchmanipulation
- Benutzerabsicht
- Website -Promotion
Verweise
- ^ "SEO - Suchmaschinenoptimierung". Webopedia. 19. Dezember 2001.
- ^ Beel, Jöran und Gipp, Bela und Wilde, Erik (2010). "Akademische Suchmaschinenoptimierung (ASEO): Optimierung der wissenschaftlichen Literatur für Google Scholar und Co" (PDF). Journal of Scholarly Publishing. S. 176–190. Abgerufen 18. April, 2010.
{{}}
: Cs1 montiert: Mehrfachnamen: Autorenliste (Link) - ^ Ortiz-Cordova, A. und Jansen, B. J. (2012) Klassifizierung von Websuchanfragen zur Identifizierung von Kunden mit hohem Umsatz generierende Kunden. Journal der American Society for Information Sciences and Technology. 63 (7), 1426 - 1441.
- ^ Brian Pinkerton. "Finden, was Menschen wollen: Erfahrungen mit dem Webcrawler" (PDF). Die zweite internationale WWW -Konferenz Chicago, USA, 17. bis 20. Oktober 1994. Abgerufen 7. Mai, 2007.
- ^ "Intro in die Suchmaschinenoptimierung | Suchmaschinenuhr". SearchEnginewatch.com. 12. März 2007. Abgerufen 7. Oktober, 2020.
- ^ Danny Sullivan (14. Juni 2004). "Wer hat den Begriff" Suchmaschinenoptimierung "erfunden?". Suchmaschinenuhr. Archiviert von das Original am 23. April 2010. Abgerufen 14. Mai, 2007. Sehen Google -Gruppen -Thread.
- ^ "Die Herausforderung ist offen", Gehirn gegen Computer, World Scientific, S. 189–211, 17. November 2020,, doi:10.1142/9789811225017_0009, ISBN 978-981-12-2500-0, S2CID 243130517, abgerufen 20. September, 2021
- ^ Pringle, G., Allison, L. und Dowe, D. (April 1998). "Was ist ein großer Mohn auf Webseiten?". Proc. 7. int. World Wide Web Conference. Abgerufen 8. Mai, 2007.
{{}}
: Cs1 montiert: Mehrfachnamen: Autorenliste (Link) - ^ Laurie J. Flynn (11. November 1996). "Verzweifelt nach Surfern suchen". New York Times. Abgerufen 9. Mai, 2007.
- ^ Jason Demers (20. Januar 2016). "Ist die Keyword -Dichte noch wichtig für SEO". Forbes. Abgerufen 15. August, 2016.
- ^ David Kesmodel (22. September 2005). "Websites werden von Suchmaschinen fallen, nachdem sie versucht haben, eine Rangliste zu" optimieren ".. Wallstreet Journal. Abgerufen 30. Juli, 2008.
- ^ Adam L. Penberg (8. September 2005). "Legal Showdown in Search Fracas". Wired Magazine. Abgerufen 11. August, 2016.
- ^ Matt Cutts (2. Februar 2006). "Eine Strafe bestätigen". Mattcutts.com/blog. Abgerufen 9. Mai, 2007.
- ^ a b "Die Richtlinien von Google vor Ort Design". Abgerufen 18. April, 2007.
- ^ a b "Bing Webmaster -Richtlinien". Bing.com. Abgerufen 11. September, 2014.
- ^ "Sitemaps". Abgerufen 4. Mai, 2012.
- ^ "Nach den Daten: Für Verbraucher ist Mobile das Internet" Google für Unternehmer Startup Grindup 20. September 2015.
- ^ Brin, Sergey & Page, Larry (1998). "Die Anatomie einer groß angelegten hypertextuellen Web-Suchmaschine". Proceedings der siebten Internationalen Konferenz über World Wide Web. S. 107–117. Abgerufen 8. Mai, 2007.
- ^ "Die Mitbegründer von Google haben möglicherweise nicht die Namenserkennung von Sagen, Bill Gates, aber geben Sie ihnen Zeit: Google war nicht annähernd so lange wie Microsoft.". 15. Oktober 2008.
- ^ Thompson, Bill (19. Dezember 2003). "Ist Google gut für Sie?". BBC News. Abgerufen 16. Mai, 2007.
- ^ Zoltan Gyongyi & Hector Garcia-Molina (2005). "Link Spam Allianzen" (PDF). Verfahren der 31. VLDB -Konferenz, Trondheim, Norwegen. Abgerufen 9. Mai, 2007.
- ^ Hansell, Saul (3. Juni 2007). "Google optimiert seine Suchmaschine immer wieder". New York Times. Abgerufen 6. Juni, 2007.
- ^ Sullivan, Danny (29. September 2005). "Überblick über Suchranking -Faktoren". Suchmaschinenuhr. Archiviert Aus dem Original am 28. Mai 2007. Abgerufen 8. Mai, 2007.
- ^ Christine Churchill (23. November 2005). "Suchmaschinenpatente verstehen". Suchmaschinenuhr. Archiviert von das Original am 7. Februar 2007. Abgerufen 8. Mai, 2007.
- ^ "Persönliche Suche in Google lässt Google Labs verlässt". SearchEnginewatch.com. Suchmaschinenuhr. Archiviert von das Original am 25. Januar 2009. Abgerufen 5. September, 2009.
- ^ "8 Dinge, die wir über Google Pagerank gelernt haben". www.searchEnginejournal.com. 25. Oktober 2007. Abgerufen 17. August, 2009.
- ^ "PageRank -Bildhauerei". Matt Cutts. Abgerufen 12. Januar, 2010.
- ^ "Google verliert" Rückwärtskompatibilität "auf bezahltem Link Blocking & PageRank Sculpting". searchEngineland.com. 3. Juni 2009. Abgerufen 17. August, 2009.
- ^ "Personalisierte Suche nach allen". Abgerufen 14. Dezember, 2009.
- ^ "Unser neuer Suchindex: Koffein". Google: Offizieller Blog. Abgerufen 10. Mai, 2014.
- ^ "Relevanz trifft in Echtzeit Web". Google Blog.
- ^ "Google -Suchqualitätsaktualisierungen". Google Blog.
- ^ "Was Sie über Googles Penguin -Update wissen müssen". Inc.com. 20. Juni 2012.
- ^ "Google Penguin befasst sich hauptsächlich mit Ihrer Linkquelle, sagt Google". Suchmaschinenland. 10. Oktober 2016. Abgerufen 20. April, 2017.
- ^ "FAQ: Alles über den neuen Google" Hummingbird "Algorithmus". www.searchengineland.com. 26. September 2013. Abgerufen 17. März, 2018.
- ^ "Suchen besser als je zuvor". Google. 25. Oktober 2019. Abgerufen 12. Mai, 2020.
- ^ "Einreichen in Verzeichnisse: Yahoo & das offene Verzeichnis". Suchmaschinenuhr. 12. März 2007. archiviert von das Original am 19. Mai 2007. Abgerufen 15. Mai, 2007.
- ^ "Was ist eine Sitemap -Datei und warum sollte ich eine haben?". Abgerufen 19. März, 2007.
- ^ "Suchkonsole - Crawl URL". Abgerufen 18. Dezember, 2015.
- ^ "Senden Sie an Suchcrawler: Google, Yahoo, Ask & Microsofts Live -Suche". Suchmaschinenuhr. 12. März 2007. archiviert von das Original am 10. Mai 2007. Abgerufen 15. Mai, 2007.
- ^ Cho, J., Garcia-Molina, H. (1998). "Effizientes Krabbeln durch URL -Bestellung". Proceedings der siebten Konferenz über World Wide Web, Brisbane, Australien. Abgerufen 9. Mai, 2007.
{{}}
: Cs1 montiert: Mehrfachnamen: Autorenliste (Link) - ^ "Mobile-First Index". Abgerufen 19. März, 2018.
- ^ Phan, Doantam (4. November 2016). "Mobile-First Indexierung". Offizieller Google Webmaster Central Blog. Abgerufen 16. Januar, 2019.
- ^ "Der neue Evergreen GoogleBot". Offizieller Google Webmaster Central Blog. Abgerufen 2. März, 2020.
- ^ "Aktualisieren des Benutzeragenten von GoogleBot". Offizieller Google Webmaster Central Blog. Abgerufen 2. März, 2020.
- ^ "Zeitungen Amok! New York Times Spam Google? La Times entführt Cars.com?". Suchmaschinenland. 8. Mai 2007. Abgerufen 9. Mai, 2007.
- ^ Jill Kocher Brown (24. Februar 2020). "Google streckt die Richtlinie der Nofollow herunter. Was nun?". Praktischer E -Commerce. Abgerufen 11. Februar, 2021.
- ^ a b c Morey, Sean (2008). Der digitale Schriftsteller. Fountainhead Press. S. 171–187.
- ^ "Bing - Partnerschaft zur Lösung doppelter Inhaltsprobleme - Webmaster Blog - Bing Community". www.bing.com. Abgerufen 30. Oktober, 2009.
- ^ Andrew Goodman. "Suchmaschinen -Showdown: Black Hats gegen weiße Hüte bei SES". SearchEngineWatch. Archiviert von das Original am 22. Februar 2007. Abgerufen 9. Mai, 2007.
- ^ Jill Whalen (16. November 2004). "Schwarzhut/weißer Hut Suchmaschinenoptimierung". searchEngineguide.com. Archiviert von das Original am 17. November 2004. Abgerufen 9. Mai, 2007.
- ^ "Was ist eine SEO? Fördert Google mit Unternehmen, die meine Website Google-freundlich anbieten?". Abgerufen 18. April, 2007.
- ^ Andy Hagans (8. November 2005). "Hohe Zugänglichkeit ist eine effektive Suchmaschinenoptimierung". Eine Liste auseinander. Abgerufen 9. Mai, 2007.
- ^ Matt Cutts (4. Februar 2006). "Auf dem internationalen Webspam rampt". Mattcutts.com/blog. Abgerufen 9. Mai, 2007.
- ^ Matt Cutts (7. Februar 2006). "Jüngste Reinklusionen". Mattcutts.com/blog. Abgerufen 9. Mai, 2007.
- ^ Tapan, Panda (2013). "Suchmaschinenmarketing: Hilft der Wissenserklärungsprozess Online -Einzelhändlern?". IUP Journal of Knowledge Management. 11 (3): 56–66. Proquest 1430517207.
- ^ Melissa Burdon (13. März 2007). "Der Kampf zwischen Suchmaschinenoptimierung und Konvertierung: Wer gewinnt?". Grok.com. Archiviert von das Original am 15. März 2008. Abgerufen 10. April, 2017.
- ^ "Richtlinien für die Qualitätsqualitätsbewerter" " Wie die Suche funktioniert 12. November 2015.
- ^ Titcomb, James (November 2016). "Mobile Web -Nutzung überholt zum ersten Mal den Desktop". Der Telegraph. Archiviert Aus dem Original am 10. Januar 2022. Abgerufen 17. März, 2018.
- ^ Andy Greenberg (30. April 2007). "Zu Google Hell verurteilt". Forbes. Archiviert von das Original am 2. Mai 2007. Abgerufen 9. Mai, 2007.
- ^ Matt McGee (21. September 2011). "Das Zeugnis von Schmidt zeigt, wie sich Google testet, wie sich Algorithmus ändert.".
- ^ Jakob Nielsen (9. Januar 2006). "Suchmaschinen als Blutegel im Web". Useit.com. Abgerufen 14. Mai, 2007.
- ^ Graham, Jefferson (26. August 2003). "Die Suchmaschine, die könnte". USA heute. Abgerufen 15. Mai, 2007.
- ^ Greg Jarboe (22. Februar 2007). "Statistiken zeigen, dass Google die internationale Suchlandschaft dominiert". Suchmaschinenuhr. Abgerufen 15. Mai, 2007.
- ^ a b c Mike Grehan (3. April 2006). "Suchmaschinenoptimierung für Europa". Klicken. Abgerufen 14. Mai, 2007.
- ^ Jack Schofield (10. Juni 2008). "Google UK schließt einen Marktanteil von 90% ab". Wächter. London. Abgerufen 10. Juni, 2008.
- ^ "Search King, Inc. gegen Google Technology, Inc., Civ-02-1457-M" (PDF). docstoc.com. 27. Mai 2003. Abgerufen 23. Mai, 2008.
- ^ Stefanie Olsen (30. Mai 2003). "Richter lehnt Klage gegen Google ab". CNET. Abgerufen 10. Mai, 2007.
- ^ "Technology & Marketing Law Blog: Kindstart gegen Google entlassen - mit Sanktionen gegen den Anwalt von Kindstart". blog.ericgoldman.org. Abgerufen 23. Juni, 2008.
- ^ "Technology & Marketing Law Blog: Google verklagt wegen Ranglisten - kinderstart.com v. Google". blog.ericgoldman.org. Abgerufen 23. Juni, 2008.
Externe Links
- Webentwicklungsförderung bei Curlie
- Webmaster -Richtlinien von Google
- Google Search Quality Evaluators Richtlinien (PDF)
- Webmaster -Ressourcen von yahoo!
- Webmaster -Richtlinien aus Microsoft Bing
- Die schmutzigen kleinen Geheimnisse der Suche in Die New York Times (12. Februar 2011)
- Google I/O 2010 - Beratung von SEO -Site von den Experten an Youtube- Technisches Tutorial zur Suchmaschinenoptimierung, angegeben bei Google I/O 2010