Suchmaschinenoptimierung

Aus besserwiki.de

Suchmaschinenoptimierung (SEO) ist der Prozess der Verbesserung der Qualität und Quantität des Datenverkehrs auf einer Website oder einer Webseite über Suchmaschinen. SEO zielt auf unbezahlten Verkehr (bekannt als "natürliche" oder "organische" Ergebnisse) und nicht auf direkten oder bezahlten Verkehr. Unbezahlter Traffic kann aus verschiedenen Arten von Suchanfragen stammen, darunter Bildersuche, Videosuche, akademische Suche, Nachrichtensuche und branchenspezifische vertikale Suchmaschinen.

Als Internet-Marketing-Strategie berücksichtigt SEO die Funktionsweise von Suchmaschinen, die computerprogrammierten Algorithmen, die das Verhalten der Suchmaschinen bestimmen, die Suchbegriffe, die in Suchmaschinen eingegeben werden, und die Suchmaschinen, die von der Zielgruppe bevorzugt werden. SEO wird durchgeführt, weil eine Website mehr Besucher von einer Suchmaschine erhält, wenn sie auf der Ergebnisseite der Suchmaschine (SERP) weiter oben steht. Diese Besucher können dann potenziell in Kunden umgewandelt werden.

Die Suchmaschinenoptimierung ist ein Teilgebiet des Suchmaschinenmarketings.

Geschichte

Webmaster und Inhaltsanbieter begannen Mitte der 1990er Jahre mit der Optimierung von Websites für Suchmaschinen, als die ersten Suchmaschinen das frühe Web katalogisierten. Anfangs brauchten Webmaster nur die Adresse einer Seite (URL) an die verschiedenen Suchmaschinen zu übermitteln, die dann einen Webcrawler schickten, der die Seite durchsuchte, Links zu anderen Seiten extrahierte und die auf der Seite gefundenen Informationen zurücksandte, um sie zu indizieren. Bei diesem Vorgang lädt ein Suchmaschinen-Spider eine Seite herunter und speichert sie auf dem Server der Suchmaschine. Ein zweites Programm, der so genannte Indexer, extrahiert Informationen über die Seite, z. B. die darin enthaltenen Wörter, ihre Position und die Gewichtung bestimmter Wörter, sowie alle Links, die die Seite enthält. All diese Informationen werden dann in einem Scheduler abgelegt, um zu einem späteren Zeitpunkt gecrawlt zu werden.

Website-Besitzer haben den Wert eines hohen Rankings und einer hohen Sichtbarkeit in den Suchmaschinenergebnissen erkannt, was sowohl für White Hat- als auch für Black Hat-SEO-Anwender eine Chance darstellt. Laut dem Branchenanalysten Danny Sullivan wurde der Begriff "Suchmaschinenoptimierung" wahrscheinlich 1997 zum ersten Mal verwendet. Sullivan schreibt Bruce Clay zu, dass er einer der ersten war, der den Begriff populär machte.

Frühe Versionen von Suchalgorithmen stützten sich auf Informationen, die von Webmastern bereitgestellt wurden, wie z. B. die Schlüsselwort-Meta-Tags oder Indexdateien in Suchmaschinen wie ALIWEB. Meta-Tags bieten einen Leitfaden für den Inhalt jeder Seite. Die Verwendung von Metadaten zur Indizierung von Seiten erwies sich jedoch als wenig zuverlässig, da die vom Webmaster im Meta-Tag gewählten Schlüsselwörter möglicherweise eine ungenaue Darstellung des tatsächlichen Inhalts der Website darstellen konnten. Fehlerhafte Daten in den Meta-Tags, wie z. B. ungenaue, unvollständige oder falsche Attribute, führten dazu, dass Seiten bei irrelevanten Suchanfragen falsch dargestellt werden konnten. Anbieter von Webinhalten manipulierten auch einige Attribute innerhalb des HTML-Quelltextes einer Seite, um eine gute Platzierung in Suchmaschinen zu erreichen. 1997 erkannten die Entwickler von Suchmaschinen, dass Webmaster sich bemühten, eine gute Platzierung in ihrer Suchmaschine zu erreichen, und dass einige Webmaster sogar ihre Platzierungen in den Suchergebnissen manipulierten, indem sie Seiten mit übermäßigen oder irrelevanten Schlüsselwörtern vollstopften. Frühe Suchmaschinen wie Altavista und Infoseek passten ihre Algorithmen an, um zu verhindern, dass Webmaster die Platzierungen manipulieren.

Da sie sich in hohem Maße auf Faktoren wie die Schlüsselwortdichte verließen, die ausschließlich von den Webmastern kontrolliert werden konnten, litten die frühen Suchmaschinen unter Missbrauch und Ranking-Manipulation. Um ihren Nutzern bessere Ergebnisse zu liefern, mussten sich die Suchmaschinen anpassen, um sicherzustellen, dass ihre Ergebnisseiten die relevantesten Suchergebnisse anzeigen und nicht unzusammenhängende Seiten, die von skrupellosen Webmastern mit zahlreichen Schlüsselwörtern vollgestopft wurden. Dies bedeutete eine Abkehr von der starken Abhängigkeit von der Begriffsdichte hin zu einem ganzheitlicheren Verfahren zur Bewertung semantischer Signale. Da der Erfolg und die Popularität einer Suchmaschine von ihrer Fähigkeit abhängt, die relevantesten Ergebnisse für eine bestimmte Suche zu liefern, könnten minderwertige oder irrelevante Suchergebnisse dazu führen, dass Nutzer andere Suchquellen aufsuchen. Die Suchmaschinen reagierten darauf, indem sie komplexere Ranking-Algorithmen entwickelten und zusätzliche Faktoren berücksichtigten, die von den Webmastern schwerer zu manipulieren waren.

Unternehmen, die übermäßig aggressive Techniken anwenden, können dazu führen, dass die Websites ihrer Kunden aus den Suchergebnissen verbannt werden. Im Jahr 2005 berichtete das Wall Street Journal über ein Unternehmen, Traffic Power, das angeblich hochriskante Techniken einsetzte und seine Kunden nicht über diese Risiken informierte. Das Magazin Wired berichtete, dass dasselbe Unternehmen den Blogger und SEO Aaron Wall verklagte, weil er über das Verbot geschrieben hatte. Matt Cutts von Google bestätigte später, dass Google Traffic Power und einige seiner Kunden tatsächlich gesperrt hat.

Einige Suchmaschinen haben sich auch an die SEO-Branche gewandt und sind häufig Sponsoren und Gäste bei SEO-Konferenzen, Webchats und Seminaren. Die großen Suchmaschinen stellen Informationen und Richtlinien zur Verfügung, die bei der Optimierung von Websites helfen. Google hat ein Sitemaps-Programm, mit dem Webmaster erfahren können, ob Google Probleme mit der Indizierung ihrer Website hat, und das auch Daten über den Google-Verkehr auf der Website liefert. Mit den Bing Webmaster Tools können Webmaster eine Sitemap und Webfeeds einreichen, die "Crawl-Rate" bestimmen und den Index-Status der Website verfolgen.

Im Jahr 2015 wurde berichtet, dass Google die mobile Suche als wichtige Funktion in zukünftigen Produkten entwickelt und fördert. Als Reaktion darauf begannen viele Marken, einen anderen Ansatz für ihre Internet-Marketingstrategien zu wählen.

Mitte der 1990er Jahre fingen die ersten Suchmaschinen an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten schnell den Wert einer bevorzugten Listung in den Suchergebnissen und recht bald entwickelten sich Unternehmen, die sich auf die Optimierung spezialisierten.

Beziehung zu Google

1998 entwickelten Larry Page und Sergey Brin, zwei Studenten der Stanford University, "Backrub", eine Suchmaschine, die auf einem mathematischen Algorithmus basierte, um die Wichtigkeit von Webseiten zu bewerten. Die von dem Algorithmus berechnete Zahl, PageRank, ist eine Funktion der Anzahl und Stärke der eingehenden Links. PageRank schätzt die Wahrscheinlichkeit, dass eine bestimmte Seite von einem Internetnutzer erreicht wird, der zufällig im Internet surft und Links von einer Seite zur anderen folgt. Dies bedeutet, dass einige Links stärker sind als andere, da eine Seite mit einem höheren PageRank mit größerer Wahrscheinlichkeit von einem zufälligen Websurfer erreicht wird.

Page und Brin gründeten Google im Jahr 1998. Google gewann eine treue Anhängerschaft unter der wachsenden Zahl von Internetnutzern, denen sein einfaches Design gefiel. Off-Page-Faktoren (wie PageRank und Hyperlink-Analyse) wurden ebenso berücksichtigt wie On-Page-Faktoren (wie die Häufigkeit von Schlüsselwörtern, Meta-Tags, Überschriften, Links und die Struktur der Website), damit Google die Art von Manipulationen vermeiden konnte, die bei Suchmaschinen zu beobachten waren, die nur On-Page-Faktoren für ihre Rangliste berücksichtigten. Obwohl der PageRank schwieriger zu manipulieren war, hatten Webmaster bereits Linkbuilding-Tools und -Schemata entwickelt, um die Suchmaschine Inktomi zu beeinflussen, und diese Methoden erwiesen sich als ähnlich anwendbar, um den PageRank zu manipulieren. Viele Websites konzentrierten sich auf den Austausch, Kauf und Verkauf von Links, oft in großem Umfang. Einige dieser Systeme oder Link-Farmen umfassten die Erstellung von Tausenden von Websites zum alleinigen Zweck des Link-Spammings.

Bis 2004 hatten die Suchmaschinen eine breite Palette von nicht offengelegten Faktoren in ihre Ranking-Algorithmen aufgenommen, um die Auswirkungen der Linkmanipulation zu verringern. Im Juni 2007 erklärte Saul Hansell von der New York Times, dass Google Websites anhand von mehr als 200 verschiedenen Signalen einstuft. Die führenden Suchmaschinen Google, Bing und Yahoo legen die Algorithmen, die sie zur Bewertung von Seiten verwenden, nicht offen. Einige SEO-Fachleute haben verschiedene Ansätze zur Suchmaschinenoptimierung untersucht und ihre persönliche Meinung dazu geäußert. Patente im Zusammenhang mit Suchmaschinen können Informationen zum besseren Verständnis von Suchmaschinen liefern. Im Jahr 2005 begann Google, die Suchergebnisse für jeden Nutzer zu personalisieren. Abhängig von der Historie früherer Suchanfragen stellte Google die Ergebnisse für angemeldete Nutzer zusammen.

Im Jahr 2007 kündigte Google eine Kampagne gegen bezahlte Links an, die PageRank übertragen. Am 15. Juni 2009 gab Google bekannt, dass es Maßnahmen ergriffen hat, um die Auswirkungen von PageRank-Sculpting durch die Verwendung des nofollow-Attributs für Links abzuschwächen. Matt Cutts, ein bekannter Software-Ingenieur bei Google, kündigte an, dass der Google Bot keine nofollow-Links mehr gleich behandeln würde, um zu verhindern, dass SEO-Dienstleister nofollow für PageRank-Sculpting verwenden. Infolge dieser Änderung führte die Verwendung von nofollow zu einer Verdunstung von PageRank. Um dies zu vermeiden, haben SEO-Ingenieure alternative Techniken entwickelt, die nofollow-Tags durch verschleiertes JavaScript ersetzen und so PageRank-Sculpting ermöglichen. Außerdem wurden verschiedene Lösungen vorgeschlagen, die die Verwendung von iframes, Flash und JavaScript umfassen.

Im Dezember 2009 kündigte Google an, dass es den Web-Suchverlauf aller seiner Nutzer nutzen würde, um die Suchergebnisse aufzufüllen. Am 8. Juni 2010 wurde ein neues Web-Indexierungssystem namens Google Caffeine angekündigt. Google Caffeine wurde entwickelt, um Nutzern die Möglichkeit zu geben, Nachrichtenergebnisse, Forenbeiträge und andere Inhalte viel schneller nach der Veröffentlichung zu finden als bisher. Google Caffeine war eine Änderung der Art und Weise, wie Google seinen Index aktualisiert, um Dinge schneller als bisher bei Google anzuzeigen. Laut Carrie Grimes, der Software-Ingenieurin, die Caffeine für Google ankündigte, "liefert Caffeine 50 Prozent frischere Ergebnisse für Websuchen als unser letzter Index..." Google Instant, die Echtzeitsuche, wurde Ende 2010 eingeführt, um die Suchergebnisse zeitnaher und relevanter zu machen. In der Vergangenheit haben Website-Administratoren Monate oder sogar Jahre damit verbracht, eine Website zu optimieren, um das Suchranking zu verbessern. Mit der zunehmenden Beliebtheit von Social-Media-Websites und Blogs nahmen die führenden Suchmaschinen Änderungen an ihren Algorithmen vor, damit neue Inhalte schneller in den Suchergebnissen erscheinen.

Im Februar 2011 kündigte Google das Panda-Update an, mit dem Websites bestraft werden, die doppelte Inhalte von anderen Websites und Quellen enthalten. In der Vergangenheit haben Websites Inhalte voneinander kopiert und durch diese Praxis von der Platzierung in den Suchmaschinen profitiert. Google hat jedoch ein neues System eingeführt, das Websites bestraft, deren Inhalte nicht einzigartig sind. Mit dem Google Penguin aus dem Jahr 2012 wurde versucht, Websites zu bestrafen, die manipulative Techniken anwenden, um ihre Platzierung in der Suchmaschine zu verbessern. Obwohl Google Penguin als Algorithmus zur Bekämpfung von Webspam vorgestellt wurde, konzentriert er sich in Wirklichkeit auf spammige Links, indem er die Qualität der Websites bewertet, von denen die Links stammen. Das Hummingbird-Update von Google aus dem Jahr 2013 war eine Algorithmusänderung, die darauf abzielte, Googles natürliche Sprachverarbeitung und das semantische Verständnis von Webseiten zu verbessern. Das Sprachverarbeitungssystem von Hummingbird fällt unter den neu anerkannten Begriff der "konversationellen Suche", bei der das System jedem Wort in der Suchanfrage mehr Aufmerksamkeit schenkt, um die Seiten besser auf die Bedeutung der Suchanfrage abzustimmen als auf einige wenige Wörter. Was die Änderungen bei der Suchmaschinenoptimierung betrifft, so soll Hummingbird für Content-Publisher und -Autoren Probleme lösen, indem irrelevante Inhalte und Spam beseitigt werden, so dass Google qualitativ hochwertige Inhalte produzieren und sich darauf verlassen kann, dass sie "vertrauenswürdige" Autoren sind.

Im Oktober 2019 kündigte Google an, BERT-Modelle für englischsprachige Suchanfragen in den USA anzuwenden. Bidirectional Encoder Representations from Transformers (BERT) war ein weiterer Versuch von Google, die Verarbeitung natürlicher Sprache zu verbessern, dieses Mal jedoch, um die Suchanfragen seiner Nutzer besser zu verstehen. Im Hinblick auf die Suchmaschinenoptimierung sollte BERT den Nutzern den Zugang zu relevanten Inhalten erleichtern und die Qualität des Datenverkehrs auf Websites erhöhen, die in den Suchmaschinenergebnisseiten auftauchen.

Die Echtzeitsuche Google Instant wurde 2010 vorgestellt, um Suchergebnisse zeitnaher und relevanter erscheinen zu lassen. Der steigenden Popularität von Sozialen Netzwerken und Blogs wurde mit der Echtzeitsuche Rechnung getragen und verstärkt darauf fokussiert.

Mit dem Panda-Upgrade 2011 wurden schließlich Webseiten abgestraft, die Seiteninhalte von anderen Seiten kopierten – so genannter Duplicate Content. Mit Google Penguin wurden ab April 2012 auch Seiten heruntergestuft, die manipulative Techniken zur Verbesserung des Rankings anwenden (Webspam).

Methoden

Indiziert werden

Suchmaschinen verwenden komplexe mathematische Algorithmen, um zu interpretieren, nach welchen Websites ein Nutzer sucht. In diesem Diagramm, in dem jede Blase eine Website darstellt, untersuchen Programme, die auch Spider genannt werden, welche Websites mit anderen Websites verlinkt sind, wobei die Pfeile diese Links darstellen. Bei Websites, die mehr eingehende Links oder stärkere Links erhalten, wird davon ausgegangen, dass sie wichtiger sind und dem entsprechen, wonach der Nutzer sucht. In diesem Beispiel ist Website B der Empfänger zahlreicher eingehender Links, weshalb sie bei einer Websuche eine höhere Position einnimmt. Und die Links "tragen durch", so dass Website C, obwohl sie nur einen eingehenden Link hat, einen eingehenden Link von einer sehr beliebten Website (B) hat, während Website E dies nicht hat. Hinweis: Die Prozentsätze sind gerundet.

Die führenden Suchmaschinen wie Google, Bing und Yahoo! verwenden Crawler, um Seiten für ihre algorithmischen Suchergebnisse zu finden. Seiten, die von anderen von Suchmaschinen indizierten Seiten verlinkt sind, müssen nicht angemeldet werden, da sie automatisch gefunden werden. Das Yahoo!-Verzeichnis und DMOZ, zwei große Verzeichnisse, die 2014 bzw. 2017 geschlossen wurden, erforderten beide eine manuelle Anmeldung und eine redaktionelle Überprüfung durch Menschen. Google bietet die Google Search Console an, für die ein XML-Sitemap-Feed erstellt und kostenlos eingereicht werden kann, um sicherzustellen, dass alle Seiten gefunden werden, insbesondere Seiten, die nicht automatisch über Links gefunden werden können, zusätzlich zu ihrer URL-Anmeldekonsole. Yahoo! bot früher einen kostenpflichtigen Anmeldeservice an, der das Crawling gegen eine Gebühr pro Klick garantierte; diese Praxis wurde jedoch 2009 eingestellt.

Die Crawler der Suchmaschinen können beim Crawlen einer Website eine Reihe verschiedener Faktoren berücksichtigen. Nicht jede Seite wird von Suchmaschinen indiziert. Auch die Entfernung der Seiten vom Stammverzeichnis einer Website kann ein Faktor dafür sein, ob Seiten gecrawlt werden oder nicht.

Heutzutage suchen die meisten Menschen mit einem mobilen Gerät bei Google. Im November 2016 kündigte Google eine umfassende Änderung der Crawling-Methode für Websites an und begann, seinen Index auf mobile Geräte umzustellen, was bedeutet, dass die mobile Version einer bestimmten Website der Ausgangspunkt dafür ist, was Google in seinen Index aufnimmt. Im Mai 2019 aktualisierte Google die Rendering-Engine seines Crawlers auf die neueste Version von Chromium (74 zum Zeitpunkt der Ankündigung). Google gab an, dass es die Chromium-Rendering-Engine regelmäßig auf die neueste Version aktualisieren würde. Im Dezember 2019 begann Google damit, die User-Agent-Zeichenfolge seines Crawlers zu aktualisieren, um die neueste von seinem Rendering-Dienst verwendete Chrome-Version wiederzugeben. Die Verzögerung sollte Webmastern Zeit geben, ihren Code zu aktualisieren, der auf bestimmte User-Agent-Strings des Bots reagiert. Google führte Bewertungen durch und war zuversichtlich, dass die Auswirkungen gering sein würden.

Verhinderung des Crawlings

Um unerwünschte Inhalte in den Suchindizes zu vermeiden, können Webmaster Spider über die Standarddatei robots.txt im Stammverzeichnis der Domain anweisen, bestimmte Dateien oder Verzeichnisse nicht zu crawlen. Außerdem kann eine Seite explizit aus der Datenbank einer Suchmaschine ausgeschlossen werden, indem ein spezielles Meta-Tag für Robots verwendet wird (normalerweise <meta name="robots" content="noindex"> ). Wenn eine Suchmaschine eine Website besucht, ist die robots.txt-Datei im Stammverzeichnis die erste Datei, die gecrawlt wird. Die robots.txt-Datei wird dann geparst und weist den Roboter an, welche Seiten nicht gecrawlt werden sollen. Da ein Suchmaschinen-Crawler eine Kopie dieser Datei im Zwischenspeicher hält, kann es vorkommen, dass er Seiten crawlt, die der Webmaster nicht crawlen möchte. Zu den Seiten, die in der Regel nicht gecrawlt werden, gehören anmeldespezifische Seiten wie Einkaufswagen und nutzerspezifische Inhalte wie Suchergebnisse aus internen Suchen. Im März 2007 warnte Google Webmaster, dass sie die Indizierung von internen Suchergebnissen verhindern sollten, da diese Seiten als Suchspam angesehen werden. Im Jahr 2020 hat Google den Standard außer Kraft gesetzt (und seinen Code offengelegt) und behandelt ihn nun als Hinweis und nicht als Richtlinie. Um angemessen sicherzustellen, dass Seiten nicht indiziert werden, sollte ein Robot-Meta-Tag auf Seitenebene eingefügt werden.

Erhöhung der Prominenz

Eine Vielzahl von Methoden kann die Sichtbarkeit einer Webseite in den Suchergebnissen erhöhen. Querverlinkungen zwischen Seiten derselben Website, um mehr Links zu wichtigen Seiten bereitzustellen, können ihre Sichtbarkeit verbessern. Das Design einer Seite sorgt dafür, dass die Nutzer einer Website vertrauen und dort bleiben wollen. Wenn Nutzer eine Website abspringen, wird dies der Website angelastet und beeinträchtigt ihre Glaubwürdigkeit. Das Verfassen von Inhalten, die häufig gesuchte Schlüsselbegriffe enthalten, um für eine Vielzahl von Suchanfragen relevant zu sein, wird den Verkehr erhöhen. Die Aktualisierung von Inhalten, damit die Suchmaschinen regelmäßig zurückkehren, kann einer Website zusätzliches Gewicht verleihen. Das Hinzufügen von relevanten Schlüsselwörtern zu den Metadaten einer Webseite, einschließlich des Titel-Tags und der Meta-Beschreibung, wird die Relevanz der Sucheinträge einer Website verbessern und somit den Traffic erhöhen. Die URL-Kanonisierung von Webseiten, die über mehrere URLs zugänglich sind, unter Verwendung des kanonischen Link-Elements oder über 301-Weiterleitungen kann dazu beitragen, dass Links zu verschiedenen Versionen der URL alle für die Link-Popularitätswertung der Seite zählen. Diese so genannten eingehenden Links, die auf die URL verweisen, können in den Link-Popularitätswert der Seite einfließen und sich auf die Glaubwürdigkeit einer Website auswirken.

Außerdem räumt Google in letzter Zeit den folgenden Elementen mehr Priorität für die SERP (Search Engine Ranking Position) ein.

  • HTTPS-Version (Sichere Website)
  • Seitengeschwindigkeit
  • Strukturierte Daten
  • Mobile Kompatibilität
  • AMP (Beschleunigte mobile Seiten)
  • BERT

Weißer Hut versus schwarze Hut-Techniken

SEO-Techniken können in zwei große Kategorien eingeteilt werden: Techniken, die von Suchmaschinenunternehmen als Teil eines guten Designs empfohlen werden ("weißer Hut"), und solche, die von den Suchmaschinen nicht gebilligt werden ("schwarzer Hut"). Die Suchmaschinen versuchen, die Auswirkungen der letzteren, zu denen auch das Spamdexing gehört, zu minimieren. Branchenkommentatoren haben diese Methoden und die Praktiker, die sie anwenden, entweder als "White Hat SEO" oder als "Black Hat SEO" klassifiziert. Weiße Hüte neigen dazu, Ergebnisse zu erzielen, die lange Zeit anhalten, während schwarze Hüte damit rechnen, dass ihre Websites entweder vorübergehend oder dauerhaft gesperrt werden, sobald die Suchmaschinen entdecken, was sie tun.

Eine SEO-Technik gilt als "weißer Hut", wenn sie mit den Richtlinien der Suchmaschinen übereinstimmt und keine Täuschung beinhaltet. Da die Suchmaschinenrichtlinien nicht als eine Reihe von Regeln oder Geboten geschrieben sind, ist dies eine wichtige Unterscheidung, die zu beachten ist. Bei White Hat SEO geht es nicht nur darum, die Richtlinien zu befolgen, sondern auch sicherzustellen, dass der Inhalt, den eine Suchmaschine indiziert und anschließend einordnet, derselbe Inhalt ist, den ein Benutzer sehen wird. White-Hat-Ratschläge werden im Allgemeinen so zusammengefasst, dass Inhalte für Nutzer und nicht für Suchmaschinen erstellt werden, und dass diese Inhalte den Online-"Spider"-Algorithmen leicht zugänglich gemacht werden, anstatt zu versuchen, den Algorithmus von seinem eigentlichen Zweck abzubringen. White Hat SEO ähnelt in vielerlei Hinsicht der Webentwicklung, die die Zugänglichkeit fördert, obwohl die beiden nicht identisch sind.

Black Hat SEO versucht, die Platzierung auf eine Art und Weise zu verbessern, die von den Suchmaschinen missbilligt wird oder die Täuschung beinhaltet. Eine Black-Hat-Technik verwendet versteckten Text, entweder als Text in einer ähnlichen Farbe wie der Hintergrund, in einem unsichtbaren Div oder außerhalb des Bildschirms platziert. Bei einer anderen Methode wird eine andere Seite angezeigt, je nachdem, ob die Seite von einem menschlichen Besucher oder einer Suchmaschine aufgerufen wird; diese Technik wird als Cloaking bezeichnet. Eine weitere Kategorie, die manchmal verwendet wird, ist Grey Hat SEO. Sie liegt zwischen Black-Hat- und White-Hat-Ansätzen, bei denen die angewandten Methoden zwar eine Abstrafung der Website vermeiden, aber nicht dazu beitragen, die besten Inhalte für die Nutzer zu produzieren. Grey Hat SEO ist ausschließlich darauf ausgerichtet, die Platzierung in Suchmaschinen zu verbessern.

Suchmaschinen können Websites, die sie mit schwarzen oder grauen Methoden entdecken, bestrafen, indem sie entweder ihre Platzierung verringern oder ihre Einträge ganz aus ihren Datenbanken entfernen. Solche Abstrafungen können entweder automatisch durch die Algorithmen der Suchmaschinen oder durch eine manuelle Überprüfung der Website erfolgen. Ein Beispiel war die Streichung von BMW Deutschland und Ricoh Deutschland durch Google im Februar 2006 wegen betrügerischer Praktiken. Beide Unternehmen entschuldigten sich jedoch schnell, korrigierten die beanstandeten Seiten und wurden wieder in die Google-Suchergebnisse aufgenommen.

Methoden, die nicht relevante Webseiten auf vordere Plätze der Ergebnisseiten von Suchmaschinen bringen, werden als Suchmaschinen-Spamming bezeichnet; sie verstoßen gegen Regeln, die Suchmaschinen zum Schutz vor Manipulationen ihrer Suchergebnisse aufstellen.

Eine zur Manipulation verwendete Technik ist, speziell für Suchmaschinen Textseiten zu erstellen und automatisierte Umleitungen auf andere Inhalte einzurichten. Diese Methode, mit so genannten Brückenseiten zu arbeiten, widerspricht jedoch den Richtlinien der meisten Suchmaschinen. Fälle, die von den Suchmaschinenbetreibern aufgedeckt werden, haben oftmals den Bann der betreffenden Seite zur Folge, d. h. die betreffenden Zielseiten werden aus dem Suchindex ausgeschlossen.

Eine Variante stellt die Erstellung von Schattendomains dar. Hier werden die für Suchmaschinen optimierten Inhalte mit den Weiterleitungen auf separate Domains ausgelagert, um die primäre Domain vor möglichen Strafen zu schützen.

Ethische Suchmaschinenoptimierung (engl. white hat search engine optimization) vermeidet Spamming. Sie verzichtet auf unerlaubte Praktiken wie den Einsatz von Brückenseiten oder einer Linkfarm und befolgt die Direktiven der einzelnen Suchmaschinen. Dadurch wird das Risiko eines Ausschlusses oder der Herabstufung in den Suchergebnisseiten vermieden. Im Gegensatz zur ethisch einwandfreien „white hat“-Suchmaschinenoptimierung wird die Optimierung unter Einbeziehung unerwünschter Methoden seitens der Suchmaschinen „black hat“-Optimierung genannt.

Als Marketingstrategie

SEO ist nicht für jede Website eine geeignete Strategie, und je nach den Zielen des Website-Betreibers können andere Internet-Marketing-Strategien effektiver sein, z. B. bezahlte Werbung durch Pay-per-Click-Kampagnen (PPC). Unter Suchmaschinenmarketing (SEM) versteht man das Entwerfen, Durchführen und Optimieren von Werbekampagnen für Suchmaschinen. Der Unterschied zu SEO wird am einfachsten als der Unterschied zwischen bezahlter und unbezahlter vorrangiger Platzierung in den Suchergebnissen dargestellt. SEM konzentriert sich mehr auf die Prominenz als auf die Relevanz; Website-Entwickler sollten SEM mit Blick auf die Sichtbarkeit größte Bedeutung beimessen, da die meisten zu den primären Einträgen ihrer Suche navigieren. Eine erfolgreiche Internet-Marketing-Kampagne kann auch davon abhängen, dass qualitativ hochwertige Webseiten erstellt werden, um Internetnutzer anzusprechen und zu überzeugen, dass Analyseprogramme eingerichtet werden, mit denen Website-Besitzer die Ergebnisse messen können, und dass die Konversionsrate einer Website verbessert wird. Im November 2015 veröffentlichte Google eine vollständige 160-seitige Version seiner Richtlinien für die Bewertung der Suchqualität, die eine Verlagerung des Schwerpunkts auf "Nützlichkeit" und die mobile lokale Suche enthüllte. In den letzten Jahren ist der mobile Markt explodiert und hat die Nutzung von Desktops überholt, wie StatCounter im Oktober 2016 bei der Analyse von 2,5 Millionen Websites feststellte, dass 51,3 % der Seiten von einem mobilen Gerät geladen wurden. Google ist eines der Unternehmen, die sich die Popularität der mobilen Nutzung zunutze machen, indem sie Websites dazu ermutigen, ihre Google Search Console, den Mobile-Friendly-Test, zu nutzen, mit dem Unternehmen ihre Website an den Suchmaschinenergebnissen messen und feststellen können, wie benutzerfreundlich ihre Websites sind. Je näher die Schlüsselwörter beieinander liegen, desto besser wird ihr Ranking auf der Grundlage von Schlüsselbegriffen.

SEO kann einen angemessenen Return on Investment bringen. Suchmaschinen werden jedoch nicht für organischen Suchverkehr bezahlt, ihre Algorithmen ändern sich, und es gibt keine Garantien für weitere Verweise. Aufgrund dieser fehlenden Garantie und der Ungewissheit kann ein Unternehmen, das sich stark auf den Suchmaschinenverkehr verlässt, große Verluste erleiden, wenn die Suchmaschinen keine Besucher mehr schicken. Suchmaschinen können ihre Algorithmen ändern, was sich auf die Platzierung einer Website in den Suchmaschinen auswirkt und möglicherweise zu einem erheblichen Verlust an Besucherzahlen führt. Laut Google-CEO Eric Schmidt nahm Google im Jahr 2010 über 500 Algorithmusänderungen vor - fast 1,5 pro Tag. Es gilt als kluge Geschäftspraxis für Website-Betreiber, sich von der Abhängigkeit vom Suchmaschinen-Traffic zu befreien. Neben der Zugänglichkeit für Web-Crawler (siehe oben) ist die Zugänglichkeit für Nutzer für die Suchmaschinenoptimierung immer wichtiger geworden.

Internationale Märkte

Die Optimierungstechniken sind stark auf die dominierenden Suchmaschinen im Zielmarkt abgestimmt. Die Marktanteile der Suchmaschinen variieren von Markt zu Markt, ebenso wie der Wettbewerb. Im Jahr 2003 stellte Danny Sullivan fest, dass Google etwa 75 % aller Suchanfragen ausmacht. Auf Märkten außerhalb der Vereinigten Staaten ist der Anteil von Google oft größer, und Google ist 2007 nach wie vor die weltweit dominierende Suchmaschine. Im Jahr 2006 hatte Google in Deutschland einen Marktanteil von 85-90 %. Während es in den USA zu dieser Zeit Hunderte von SEO-Firmen gab, waren es in Deutschland nur etwa fünf. Im Juni 2008 lag der Marktanteil von Google im Vereinigten Königreich nach Angaben von Hitwise bei fast 90 %. Dieser Marktanteil wird in einer Reihe von Ländern erreicht.

Im Jahr 2009 gibt es nur noch wenige große Märkte, in denen Google nicht die führende Suchmaschine ist. In den meisten Fällen, in denen Google in einem bestimmten Markt nicht führend ist, liegt es hinter einem lokalen Anbieter zurück. Die bemerkenswertesten Beispielmärkte sind China, Japan, Südkorea, Russland und die Tschechische Republik, wo Baidu, Yahoo! Japan, Naver, Yandex und Seznam Marktführer sind.

Eine erfolgreiche Suchoptimierung für internationale Märkte kann die professionelle Übersetzung von Webseiten, die Registrierung eines Domänennamens mit einer Top-Level-Domäne im Zielmarkt und ein Webhosting mit einer lokalen IP-Adresse erfordern. Ansonsten sind die grundlegenden Elemente der Suchoptimierung im Wesentlichen dieselben, unabhängig von der Sprache.

Rechtliche Präzedenzfälle

Am 17. Oktober 2002 reichte SearchKing vor dem United States District Court, Western District of Oklahoma, Klage gegen die Suchmaschine Google ein. Die Klage von SearchKing lautete, dass Googles Taktik zur Verhinderung von Spamdexing eine unerlaubte Einmischung in vertragliche Beziehungen darstelle. Am 27. Mai 2003 gab das Gericht dem Antrag von Google statt, die Klage abzuweisen, da SearchKing "keinen Anspruch geltend gemacht hat, auf den Rechtsschutz gewährt werden kann".

Im März 2006 reichte KinderStart eine Klage gegen Google wegen der Platzierung in der Suchmaschine ein. Die Website von KinderStart wurde vor der Klage aus dem Google-Index entfernt, und die Besucherzahlen auf der Website gingen um 70 % zurück. Am 16. März 2007 wies das US-Bezirksgericht für den nördlichen Bezirk von Kalifornien (Abteilung San Jose) die Klage von KinderStart ab, ohne eine Änderung zuzulassen, und gab dem Antrag von Google auf Sanktionen nach Regel 11 gegen den Anwalt von KinderStart teilweise statt und verpflichtete ihn, einen Teil der Prozesskosten von Google zu übernehmen.

Arbeitsweise

Man unterteilt die Suchmaschinenoptimierung grob in zwei Aufgabenbereiche, die Onpage- sowie die Offpage-Optimierung. Diese Kategorisierung wird an dem Kriterium festgemacht, ob dabei die eigene Seite bearbeitet wird oder man Einfluss auf andere Webseiten nimmt.

Onpage-Optimierung

Texte

Im Zuge der Suchmaschinenoptimierung hat sich in diesem Bereich ein eigener Schreibstil entwickelt, den man als suchmaschinenoptimierten Stil beschreiben kann. Dieser folgt den „Regeln“, die gewissermaßen durch die Mechanismen der Suchmaschine vorgegeben werden. Es handelt sich dabei um implizite Regeln, da diese anhand der Erfolgsfaktoren der Optimierung rekonstruiert werden, denn ein Suchmaschinenanbieter gibt in der Regel seine Kriterien zur qualitativen Einstufung der indexierten Seiten nicht bekannt. Kennzeichen dieses Stils sind unter anderem Suchbegriffe möglichst am Anfang von Überschriften, Abschnitten und Sätzen sowie Listen und hervorgehobene Wörter.

Die Vorgaben durch die Suchmaschine an Inhalte der Seiten können dabei gänzlich den Regeln klassischer Textproduktion widersprechen. Beispielsweise spielen grammatikalische Regeln für die Suchalgorithmen kaum eine Rolle. Auf diese Weise kann ein oft falsch geschriebenes Keyword mehr zur Optimierung des Rankings beitragen als ein fachlich korrekter Begriff. Dieses Vorgehen nimmt aber ab, da Google und andere Suchmaschinen zunehmend Falschschreibweisen selbstständig erkennen und zuordnen. Außerdem berücksichtigen Suchmaschinen inzwischen korrekte Rechtschreibung ebenso wie korrekte Grammatik.

Da diese Mechanismen einer Entwicklungsdynamik unterliegen, wird dieser Schreibstil ebenso oft angepasst, um jeweils wieder das bestmögliche Ergebnis bei der Optimierung zu liefern. Das bedeutet, dass eine Seite niemals nur einmal optimiert wird. Es bedarf vielmehr einer dauerhaften Überprüfung der Relevanz der verwendeten Keywords, da sich auch das Nutzerverhalten verändert.

Google selbst empfiehlt, Webseiten für Menschen zu optimieren, nicht für die Suchmaschine.

Offpage-Optimierung

Die „Offpage-Optimierung“ findet fernab der zu optimierenden Seite statt und bezeichnet alle Maßnahmen außerhalb der zu optimierenden Webseite.

Es genügt nicht alleine, die Relevanz durch OnPage-Maßnahmen zu erhöhen. Ein gutes Listing in Suchmaschinen und eine gute Linkpopularität wird von der Quantität und Qualität der eingehenden Links auf eine Website (Rückverweis oder auch Backlink genannt) beeinflusst. Umfassender und qualitativ hochwertiger Content ist die erste Maßnahme, um sich Backlinks zu „verdienen“. Bei der Offpage-Optimierung geht es u. a. um die Herausbildung einer Linkstruktur mit anderen Webseiten, um sich besser in bestimmten thematischen Bereichen zu positionieren. Dafür kann man bspw. nach thematisch passenden Webseiten suchen, um sie für eine Linkpartnerschaft zu gewinnen. Eine weitere Maßnahme, um mögliche Linkpartner zu finden, ist die Linkanalyse von Wettbewerbern. Auch der Einsatz sogenannter Link Research Tools kann sich lohnen, um die besten Unterseiten einer Domain zu durchforsten. Zudem ist die Ausgestaltung des Linktextes (Ankertext) der Rückverweise essenziell für das Ranking. Um Websites auf ihr Potenzial hin zu untersuchen, können kostenlose Webanwendungen genutzt werden. Oftmals genügen kleine Veränderungen, um die Platzierung in Suchmaschinen stark zu erhöhen.

Einige Methoden widersprechen den Richtlinien der meisten Suchmaschinen – sie können zum zeitweiligen oder dauerhaften Ausschluss führen.

Umstritten ist, ob neben Backlinks auch sogenannte „Social Signals“ für das Ranking berücksichtigt werden. Dabei handelt es sich um Erwähnungen der Webseite in Form von „Likes“, „Shares“, „Comments“ (Facebook) sowie „Tweets“ und „Retweets“ (Twitter). Hintergrund ist, dass Suchmaschinen nicht nur die Backlinks analysieren, sondern zugleich algorithmisch prüfen, wie intensiv sich Nutzer über eine Webseite innerhalb ausgewählter sozialer Netzwerke wie Facebook oder Google+ austauschen.

Suchbegriffe

Ein Schritt bei der Suchmaschinenoptimierung ist die Auswahl geeigneter Suchbegriffe (Keywords). Hierzu kann man sich frei verfügbarer Datenbanken, wie einer Keyword-Datenbank oder des MetaGer-Web-Assoziators, bedienen. Weiterhin bietet sich die Verwendung des Google-AdWords-Keyword-Tools an, das neben verwandten Suchbegriffen auch die ungefähre Anzahl der monatlichen Suchanfragen pro Suchbegriff auflistet.

Oft wird auch eine umfangreiche Seite in mehrere Einzelseiten aufgeteilt, um diese für verschiedene Suchbegriffe zu optimieren. Hierbei werden Haupt- sowie Nebenkeywords (auch Primär- und Sekundärkeywords) für die jeweiligen Seiten festgelegt. Dabei werden die Suchwörter mit den entsprechenden Inhalten kombiniert.

Eine Art der Optimierung erfolgt durch sogenannte Landingpages. Dabei gelangt der Benutzer mit dem Klick auf den Link auf eine speziell für SEO-Zwecke optimierte Seite. Eine weitere Methode ist es, Pillar-Content anzulegen, also für wichtige Einzelseiten eine oder mehrere Übersichtsseiten anzulegen.

Reverse Engineering

Die führenden Suchmaschinen Google, Bing und Yahoo geben die Algorithmen für das Ranking nicht preis. Diese werden außerdem häufig geändert, um Missbrauch zu erschweren bzw. eine Verbesserung der Ergebnisse zu erreichen.

Bei der Suchmaschinenoptimierung werden auch die Techniken der Sortieralgorithmen von Suchmaschinen untersucht und versucht durch Reverse Engineering der Suchergebnisse zu entschlüsseln. Dabei wird analysiert, wie Suchmaschinen Webseiten und deren Inhalte bewerten und sortieren. Oftmals wird versucht durch statistische Untersuchungen Korrelationen zwischen Größen (wie Seitentitel, Überschrift) und den Suchergebnissen zu finden und so Rückschlüsse auf Rankingfaktoren zu ziehen.

Einige Suchmaschinenoptimierer studieren diese Korrelationen, erstellen eigene Tests oder führen andere Versuche durch und teilten ihre Erkenntnisse. Auch Patente in Bezug auf Suchmaschinen wurden zur Informationsgewinnung über die Funktion herangezogen.

Sonderfälle

Suchmaschinenoptimierung wird nicht nur im Bereich von Webseiten angewendet, sondern auch für Bilder-, Video- oder Nachrichtensuchen. Das Grundprinzip ist dasselbe wie bei der traditionellen Web-Suchmaschinenoptimierung, jedoch kommen weitere Rankingfaktoren hinzu, während andere wegfallen.

Einen Sonderfall stellt auch die akademische Suchmaschinenoptimierung (Academic Search Engine Optimization, ASEO) dar. Hier wird versucht PDF-Dateien für akademische Suchmaschinen wie Google Scholar und CiteSeer zu optimieren. Neben weiteren Faktoren berücksichtigt Google die Suchwortdichte und – anstelle von (Hyper)Links – die Erwähnungen in anderen wissenschaftlichen Publikationen.

Technische Grenzen

Rein grafisch orientierte, primär mit Filmen, Bildern und grafisch eingebetteten Texten gestaltete Seiten, bieten den Suchmaschinen kleinen oder wenig auswertbaren Text. Solche Seiten sollten sowohl mit Hinblick auf SEO als auch auf Benutzerfreundlichkeit und "Barrierefreiheit" vermieden werden.

Zudem gibt es Bereiche, die für Suchmaschinen komplett unsichtbar sind, dies wird als Deep Web bezeichnet. Dabei kann es sich um absichtlich gesperrte Seiten handeln bspw. bei Bereichen, die einen Benutzerzugang erfordern. Es kann sich aber auch um Inhalte handeln, die wegen fehlender Interaktionen, wie einer Benutzereingabe in Form einer Suche, nicht erreichbar sind. Letzteres wird im Zuge einer Optimierung für Suchmaschinen erschließbar gemacht.

Wettbewerbe

Ein SEO-Wettbewerb bzw. SEO-Contest ist eine Möglichkeit, Strategien zu beobachten und auszuprobieren, was mit Produktivsystemen selten mit der notwendigen Freiheit möglich ist. Dabei versuchen die Teilnehmer, mit fiktiven Wörtern möglichst weit vorne bei einer Suchmaschine gelistet zu werden. Es gewinnt die Webseite, die zu einem Stichtag auf Platz 1 bei Google bzw. einer spezifizierten Suchmaschine ist. Zu den bekanntesten Wettbewerbsbegriffen gehören Schnitzelmitkartoffelsalat und Hommingberger Gepardenforelle.