Black Hat SEO: Leitfaden zur Manipulation von Suchergebnissen!

Für den Erfolg einer Webseite ist es unerlässlich, in den Ergebnissen einer Suchmaschine an einer der vorderen Positionen aufgeführt zu werden. 90 % aller Internetbenutzer verwenden Suchmaschinen. Nach neuesten Erkenntnissen schenken aber nur noch zirka 30 % von ihnen Ergebnissen auf der zweiten Suchergebnisseite Beachtung.

Da Suchmaschinen Webseiten nach bestimmten Kriterien bewerten – die allerdings je nach Anbieter unterschiedlich sein können und sich im Laufe der Zeit ändern – kann eine Webseite auf diese hin ausgerichtet werden, um ein möglichst hohes Ranking zu erzielen. Dazu bedarf es heutzutage allerdings fast schon eines Spezialisten, der sich professionell mit der Optimierung von Webseiten beschäftigt, eines sogenannten SEO (Search Engine Optimizers).

Gegen Websiteoptimierung an sich ist auch nichts einzuwenden. Wenn diese dazu führt, dass Nutzer unter den von ihnen eingegebenen Suchbegriffen einschlägige Webseiten präsentiert bekommen, sind diese mit der Qualität der Suchmaschine zufrieden und werden sie wieder benutzen.

Geniale Themes: MyThemeShop
MyThemeShop
Vorteile:
MyThemeShop Vorteile
  • Extrem schöne WordPress Themes
  • Bereits SEO-optimiert und flexibel einsetzbar
  • Einzelkauf oder Premium Abo möglich

Greifen Webmaster allerdings auf Optimierungsmittel zurück, nur um den Traffic ihrer Website zu erhöhen und erzeugen sie dabei irrelevante Suchergebnisse, können solche Maßnahmen von Suchmaschinen als Spam, also als unzulässige und aufdringliche Werbeaktionen, gewertet und gegen die jeweiligen Webmaster Maßnahmen ergriffen werden, i.d.R. der Ausschluss aus dem Index der Suchmaschine. Dies hat zur Folge, dass eine Webseite nicht mehr über die Suchmaschine gefunden werden kann.

Die Grenze zwischen hilfreicher Websiteoptimierung und bedenklicher Einflussnahme auf Suchresultate ist oft fließend und wird von Suchmaschine zu Suchmaschine unterschiedlich beurteilt. Welche Maßnahmen als unzulässig betrachtet werden, lässt sich auf den Webseiten der Suchmaschinen jeweils in Erfahrung bringen (siehe z. B. die Google-Informationen für Webmaster).

Das Ziel, Suchmaschinen auszutricksen, ist heute durchaus populär, doch Suchdienste reagieren schnell. Was heute noch funktioniert, kann morgen schon als Spam gelten und zum Ausschluss aus dem Index führen.

Im Folgenden werden einige der Methoden vorgestellt, mit denen versucht wurde oder teils noch immer versucht wird, das Ranking einer Webseite zu beeinflussen. Den magischen Trick, seine Webseite unter den Suchergebnissen prominent zu platzieren, gibt es aber nicht.

Der Schlüssel zum Erfolg liegt in hochwertigem Inhalt (Content) und Links von selbst gut bewerteten Webseiten und dies setzt aufwendige und systematische Arbeit voraus.

Conversion-Plugins: Flytools
Flytools
Vorteile:
Flytools Vorteile
  • Ideal um Webinar- oder Mitglieds-seiten zu erstellen
  • Conversionstarke Buttons schnell & einfach erstellen

Problem einer Suchmaschinen-Spam-Definition

In einem Panel bei der Search Engine Strategies wurde versucht, eine Definition für Suchmaschinenspam zu finden. Einige zentrale Überlegungen sollen hier kurz nachvollzogen werden:

Als Suchmaschinenspam werden grundsätzlich solche Seiten angesehen, die entweder Nutzer in die Irre führen sollen oder die keinerlei Zusatznutzen für Surfer bieten. Zu letzterer Kategorie sollen Webseiten zu zählen sein, die den gleichen Inhalt wie andere Webseiten aufweisen, so z. B. die zahlreichen Wikipedia-Klone oder auch Shop-Seiten im Rahmen von Affiliate-Programmen.

Der Teufel dürfte hier aber im Detail stecken. Wer nach einem Lexikoneintrag sucht, ist bei Wikipedia an einer guten Stelle. Weitere Suchergebnisse, die ihn zu Webseiten führen, die lediglich den Eintrag kopiert haben, bringen ihm keinen Nutzen. Im Gegenteil: Die aktuelle Version findet sich allein bei Wikipedia.

Wo es aber nicht einen derartigen Marktführer gibt und mehrere Webseiten die gleichen Informationen erhalten, wird es schwer, zu sagen, wer der „Spammer“ ist. Es finden sich z. B. zahlreiche Webseiten mit Urteilssammlungen. Sollte hier wirklich nur derjenige den Surfern einen Nutzen verschaffen, der als erstes ein neues Urteil Online stellt?

Nach Ansicht von Danny Sullivan von SearchEngineWatch ist Spam alles das, was Suchmaschinen für Spam halten. Diese weitgehende Definitionsmacht für Suchmaschinenbetreiber ist aber nicht unproblematisch. Irgendwo müssen hier auch Grenzen gezogen werden. Zumindest bei marktbeherrschenden Suchmaschinen ist es vorstellbar, dass diese nicht willkürlich Spam definieren dürfen.

WP-Akademie
Nutzen:
WP-Akademie Inhalt
  • Ausbildung zum Internet-Unternehmer
  • Online Private-Coaching
  • Zertifizierung und Auszeichnung
WP-Akademie Button

Die meisten Suchmaschinen bestrafen pauschal die Verwendung bestimmter Suchmaschinenoptimierungstechniken. Entscheidend sollte es aber auf die Intention der Maßnahme ankommen. Erfolgt die Verwendung z. B. von Doorway Pages nur zu dem Zweck, dass Webseiten unter zutreffenden Suchbegriffen gefunden werden, fällt es schwer, dies als Spam zu bezeichnen.

Und in der Tat ist es so, dass Google einigen Webmastern deren Verwendung ausdrücklich erlaubt hat, z. B. wenn Webmaster Nutzer auf Datenbanken mit entgeltlichen Inhalten aufmerksam machen wollen. Eine Bevorzugung einzelner Webmaster ist aber nur solange unproblematisch, als eine Suchmaschine nicht als marktbeherrschend einzustufen ist. Dann könnte sie aus kartellrechtlichen Gesichtspunkten zu einer Gleichbehandlung verpflichtet sein.

Kritisiert wurde, dass Suchmaschinen oft nicht klar genug angeben, was sie als Spam betrachten und entsprechend bestrafen. Durch schwammige Formulierungen sollen hier offensichtlich Hintertüren für ein willkürliches Verhalten offen bleiben.

Wer im Zweifel darüber ist, ob seine Optimierungstechniken Spam sind, sollte sich die Frage stellen, ob er wichtig genug ist, dass Google ihn nicht aus dem Index dauerhaft ausschließen wird.

Ein Bonus großer Firmen bei Google lässt sich kaum leugnen. So war auch der Ausschluss der BMW-Webseiten aus dem Index wegen der Verwendung von Doorway Pages nur ein sehr kurzer und sie blieben von einem „30-Tage-Ban“ verschont.

Hier lässt sich aber argumentieren, dass Nutzer erwarten, dass sie bei Eingabe einer bekannten Marke zu deren Website gelangen. Eine Nichtauffindbarkeit von BMW bei Eingabe dieses Begriffs dürften Nutzer kaum tolerieren.

Was ist Googlebombing?

Google analysiert nicht nur Milliarden von Dokumenten, sondern auch die Links, die zu einer Webseite führen. Diese haben Einfluss auf das Ranking. Vereinfacht gesagt, steigt die Stellung einer Webseite innerhalb der Suchergebnisse mit der Anzahl der Links zu der Webseite.

Dabei sind Links von einer selbst hoch bewerteten Webseite wertvoller als von einer unbedeutenden. Diesem sogenannten System des Page Ranking wird demnächst ein eigener ausführlicher Beitrag gewidmet sein. An dieser Stelle ist zunächst nur von Bedeutung, dass der Algorithmus von Google von der Vorstellung ausgeht, dass der dem Link zugrundeliegende Text auch den Inhalt der Webseite korrekt widerspiegelt, auf die verwiesen wird.

Hier setzt das sogenannte Googlebombing an. Verweist eine genügend große Anzahl von Personen auf eine Webseite und benutzt dabei den gleichen zugrundeliegenden Text, gelingt es, dass Google die Webseite unter diesem Suchbegriff als Resultat listet, obwohl der Inhalt der Webseite ein ganz anderer ist. Mit anderen Worten: Der Linkprovider kann beeinflussen, unter welchem Suchwort die verlinkte Webseite bei Suchmaschinen gefunden werden kann!

Auf diese Weise ist es Adam Mathes gelungen, dass bei Eingabe von „talentless hack“ die Webseite seines Freundes bei Google als erstes Suchergebnis erschien. Mathes hat in diesem Zusammenhang den Begriff des Googlebombing geprägt.

Welche Fälle von Googlebombing gab es bereits?

Einige Beispiele in der Übersicht:

  • Ende 1999 erschien unter den Suchworten „more evil than satan himself“ ein Link zur Website von Microsoft.
  • Ebenfalls 1999 führten die Suchworte „this company sucks“ zu den Webseiten von Disney und von Microsoft.
  • Microsoft war 2002 erneut Opfer einer Googlebomb, dieses mal bei den Suchworten „go to hell“.
  • Auch George W. Bush gehört zu den gern gesehenen Opfern von Google Bombs. Anfang 2001 erschien der „Official George W. Bush campaign store“ als erstes Suchergebnis bei „dump oedipus“. HugeDisk, ein satirisches Magazin, hatte mit verschiedenen obskuren Phrasen experimentiert, um zu sehen, ob die eigene Webseite schon in den Index aufgenommen ist und den „beleidigenden Link“ gesetzt. 2001 brachte die Suche nach „dumb motherfucker“ die Webseite von Präsident Bush und 2003 die nach „miserable failure“ die der Biographie des Präsidenten.
  • Genau genommen eigentlich keine Google Bomb, erschien unter zahlreichen pornographischen Begriffen in den Suchergebnissen die Webseite von Disney. Wie war dies möglich? Viele Pornoanbieter fragen auf ihrer Startseite danach, ob ein Besucher älter als 18 Jahre ist. Klickt dieser auf den Nein-Link, gelangt er zur Website von Disney. Die Spider von Google assoziierten die Website von Disney aufgrund der den Link umgebenden Wörtern mit der Pornoszene und hielten die Webseite diesbezüglich für relevant.

Gelegentlich werden Google Bombs je nach dem mit ihnen verfolgtem Zweck in verschiedene Kategorien eingeteilt: Humorvolle, um Freunde zu ärgern („talentless hack“), Ego-Bomben (der Blogger David Gallagh wollte mittels einer Google Bomb zum bekanntesten David Gallagh des Internet werden, schaffte es bei Google aber nur auf Position 3) und Bomben mit wirtschaftlichen Hintergrund.

Letztere sind allerdings so gut wie nicht bekannt geworden. Erwähnt wird lediglich gelegentlich die Aufforderung eines Webloggers, die Webseite seines Vaters mit dem Linktext „Santa Cruz real estate“ auf Platz 1 bei Google zu bringen. Diese stieg bei den Suchergebnissen eine Woche später dann auch von Platz 189 auf Platz 39.

Um die Position der eigenen Webseite in den Suchergebnissen zu verbessern, wäre es zwar theoretisch möglich, Leute für Links zu bezahlen, doch stellt sich dann die Frage, ob es nicht doch einfacher und effektiver ist, auf die von den Suchmaschinen direkt angebotenen Werbeformen zuzugreifen.

Bedrohen Google Bombs die Qualität der Suchergebnisse?

Die „manipulierten“ Suchergebnisse spiegeln nicht die Meinung des Netzes, sondern einzelner Nutzer wieder, die sich daraus einen Spaß machen. Die New York Times spricht in diesem Zusammenhang von Cybergraffiti.

Eine ernsthafte Gefahr für die Funktionsweise von Suchmaschinen geht vom Google Bombing allerdings nicht aus. Zum einen bedarf es i.d.R. einer Vielzahl von Links mit dem gleichen Linktext, um die Bombe „scharf zu machen“, zum anderen wird bei Suchanfragen wie „this company sucks“ oder „go to hell“ kaum ein Nutzer mit sinnvollen Suchergebnissen rechnen.

Einen Schaden richten sie daher nicht an. Danny Sullivan von Searchenginewatch hat allerdings darauf hingewiesen, dass es für die Suche nach “miserable failure” durchaus “richtige” Suchergebnisse gibt, die zurückgedrängt wurden. Die „Dick Gephardt For President Site“ hat die Bush-Regierung als „miserable failure“ bezeichnet und dies zum Teil seines Kampagnen-Slogans gemacht.

Google Bombing – Der eigene Versuch

Die bisherigen Ausführungen haben gezeigt, dass eine Webseite bei Google nicht nur dann in den Suchergebnissen erscheint, wenn der Suchbegriff auf dieser Webseite enthalten ist, sondern unter gewissen Umständen bereits dann, wenn der Suchbegriff als Text eines Links verwendet wird, der zu dieser Webseite führt.

Auf diese Weise ist es zuletzt gelungen, dass unter dem Suchbegriff miserable failure die Website der Biographie von George Bush erschien, die diesen natürlich nicht selbst enthält. Doch war dazu eine Vielzahl von Links mit dem gleichen Linktext notwendig.

Kann nun aber auch ein Webmaster alleine eine Googlebomb „zünden“? Wie meine eigenen Spielereien – Hintergrund ist meine Arbeit an einem Aufsatz über die Aspekte von Suchmaschinenmanipulation – ergeben haben, ist dies zumindest in beschränktem Umfang möglich.

Problem Nr. 1

Die Suche nach miserable failure ergibt bei Google 1.247.000 Ergebnisse. Die Position, an der eine Website angezeigt wird, ist von vielen Umständen abhängig (z. B. Zahl der Links zu dieser Webseite, Titel der Seite usw.). Alleine, weil eine Webseite einen Link mit dem Text miserable failure zur Webseite von George Bush enthält, hat dies nicht zur Folge, dass dessen Webseite unter diesen Suchbegriffen an einer der vorderen Stellen erscheint.

Der Erfolg dieser Google Bomb war daher von dem Zusammenwirken zahlreicher Webmaster abhängig. Doch, so die Ausgangsüberlegung, was würde passieren, wenn man auf eine Webseite einen Link mit einem zugrundeliegenden Text setzt, der bislang bei Google zu keinen Suchtreffern führt? Würden dann in den Suchergebnissen zwei Webseiten angezeigt werden, einmal die eigene, auf der dieser Suchbegriff verwendet wird, und einmal die verlinkte?

Eine Suchanfrage zu finden, die bislang keine Suchergebnisse produziert, ist nicht so schwierig, wie es sich zunächst anhört. Man muss die Suche nur auf eine etwas längere exakte Phrase richten. So ergab die Suche nach „Deutscher Fußballmeister wird im Jahr 2014“ (die Anführungszeichen sind wichtig!) keinen einzigen Treffer.

Nun kann man natürlich einwenden, dass eine Google Bomb mit diesem Text nicht besonders effektiv wäre, weil niemand die exakt gleiche Phrase eingeben wird. Das mag richtig sein, doch Hand aufs Herz, wer hat bei Google schon einmal nach „miserable failure“ oder nach „more evil than the devil“ gesucht?

Und wer es gemacht hat, bestimmt erst nachdem er durch andere von der Google Bomb erfahren hat und ausprobieren wollte, ob es wirklich funktioniert. Die zusätzliche Mitteilung, die Google Bomb funktioniere nur unter Verwendung der Anführungszeichen, macht eine Google Bomb daher nicht schon von vornherein uninteressanter.

Problem Nr. 2

In einem zweiten Schritte habe ich einen Link zur offiziellen Webseite von Werder Bremen gesetzt und zwar mit dem Linktext „Deutscher Fußballmeister wird im Jahr 2014“. Ergebnis bei Google: Meine eigene Webseite erscheint in den Suchergebnissen, nicht aber die von Werder Bremen.

Zeitgleich habe ich mit einer anderen Phrase eine eigene neu registrierte Webseite verlinkt und siehe da: Auch die verlinkte Webseite wird bei Google angezeigt. Es scheint daher möglich zu sein, eine von Google im Vergleich zur eigenen Webseite mit einem niedrigeren PageRank-Wert versehene Webseite aufgrund eines einzelnen Links unter dem Linktext erscheinen zu lassen, nicht aber eine gleich oder höher bewertete Webseite.

Meine Website hat einen PageRank-Wert von 6, ebenso die offizielle Webseite von Werder Bremen; die andere verlinkte neu registrierte Webseite hatte einen Wert von 0. Selbst hoch bewertete Webseiten können somit nicht so leicht Opfer einer Googlebomb aufgrund eines einzelnen Links werden. Möglich bleiben aber trotzdem noch kleinere Spielereien im Freundeskreis.

So könnte man zu der Webseite seines Freundes, der sich bei einem Treffen einmal verspätet hat, einen Link mit dem Text „wer hat eine schöne Frau letzte Woche 30 Minuten warten lassen?“ setzen. Viel mehr als solche harmlosen Googlebombs werden sich aber mit einem einzigen Link nicht erzeugen lassen.

Problem Nr. 3

Nachdem es nicht möglich war, die offizielle Webseite von Werder Bremen bei der Phrase „Deutscher Fußballmeister wird im Jahr 2014“ erscheinen zu lassen, habe ich als Linkziel einer andere Webseite gesucht, die als Titel „Werder Bremen“ enthält, aber selbst nicht über einen hohen PageRank-Wert verfügt.

So war es also letztlich doch möglich, dass Google die Frage nach dem neuen deutschen Fußballmeister mit Werder Bremen beantwortet. Doch wie lange wird dies so sein? Bis Bremen doch noch in eine Krise gerät? Weit gefehlt! Sobald die Google Bomb bekannt wird, entschärft sie sich quasi von selber. Auf immer mehr Webseiten wird von der Aktion berichtet.

Werden diese von Google in den Index aufgenommen, hat dies zur Folge, dass bei der Suchanfrage nicht mehr nur zwei Webseiten (die linkende und die verlinkte Webseite) erscheinen, sondern immer mehr (die berichtenden Webseiten), mit der Folge, dass die richtige Antwort schon bald nicht mehr an erster Position stehen wird.

Resümee

One Man One Link Google Bombs sind zwar möglich, doch können sie nicht gegen populäre Webseiten gerichtet werden und entschärfen sie sich selbst schnell wieder (self destructive Google Bomb).

Irgendwie auch beruhigend, dass Google sich nicht so schnell austricksen lässt. Und das wichtigste ist natürlich, dass Bremen im Mai auch wirklich vor München Deutscher Meister wird! „Gooooracle“ kann dann behaupten, dies schon immer gewusst zu haben…

Was sind Doorway Pages?

Doorway Pages (gelegentlich auch als Brückenseiten oder Pointer-, Gateway-, Bridge-, Entry- oder Jump-Seiten bezeichnet) sind Webseiten, die nicht für Besucher gedacht, sondern für die Spider von Suchmaschinen mit Blick auf bestimmte Schlüsselwörter optimiert sind, um ein möglichst hohes Ranking einer Webseite zu erreichen.

Einer Suchmaschine soll der Eindruck vorgespiegelt werden, eine Webseite sei für ein bestimmtes Schlüsselwort von herausragender Relevanz. Zu diesem Zweck besteht der Inhalt einer Doorway Page zumeist aus sinnlosen Wiederholungen von bestimmten Wörtern oder sie ist zumindest mit diesen Schlüsselwörtern überfrachtet.

Diese werden z. B. in Meta-Tags, im Titel, in Alternativ-Texten von Bildern und im eigentlichen Text platziert, dort mehrmals verwendet und besonders durch Fettschrift bzw. Größe hervorgehoben. Weder hat die Webseite eine optische Wirkung noch soll der Inhalt das Interesse von Besuchern wecken.

Aufgrund ihres oft nutzlosen Inhalts verlinken Webmaster Doorway Pages auch nicht von anderen Webseiten ihres Internetauftritts aus. Lediglich die Doorway Page enthält einen Link zu den eigentlichen Inhalten. Mit anderen Worten formuliert, eine Webseite mit Inhalten soll zwar über eine Doorway Page erreicht werden, es soll aber keinen Weg mehr zu ihr zurück geben.

Nun mag ein Webmaster noch zusätzlich auf die Idee kommen, dass die Besucher die Doorway Page idealerweise gar nicht mehr zu Gesicht bekommen. Wenn diese über eine Suchmaschine den Weg zu ihm gefunden haben, hat die optimierte Webseite ihren Zweck erfüllt, der nutzlose Inhalt interessiert niemanden und bleibt besser verborgen.

Eine Möglichkeit ist es hier, mittels eines Refresh-Tags Nutzer gleich zur relevanten Webseite weiterzuleiten (<meta http-equiv=“refresh“ content=“0“; URL=“decision.htm“>) Allerdings besteht die Gefahr, dass Suchmaschinen eine kurze Redirect-Dauer als Zeichen für eine Doorway Page interpretieren und dies zu Sanktionen (dazu sogleich) führen könnte.

Um dies zu vermeiden und trotzdem einen Redirect erfolgen zu lassen, empfiehlt es sich, ein JavaScript (window.location.replace(„datei.htm“) zu verwenden. Außerdem sollte die Umleitung mindestens 10 Sekunden verzögert sein. Eine serverseitige Funktion wird von den Suchmaschinen zwar problemlos anerkannt, führt aber nicht zu dem gewünschten Erfolg.

Einem Browser wird nämlich mitgeteilt, dass die gewünschte Webseite woanders zu finden ist und die entsprechende Adresse wird übermittelt (diese Art der Weiterleitung findet z. B. Anwendung, wenn sich die Adresse einer Webseite ändert). Suchmaschinen indizieren dann nur die neue URL und ignorieren die Webseite mit der Weiterleitung. Diese wird nicht in den Index übernommen. Eine derartige Doorway Page würde also unberücksichtigt bleiben.

Wie reagieren Suchmaschinen auf Doorway Pages?

Suchmaschinen haben rasch das Problem erkannt, dass Doorway Pages ihre vorderen Suchplätze vollmüllen können und damit aufgrund nutzloser Suchergebnisse die Unzufriedenheit der Nutzer mit der Qualität des Angebots steigen kann. Definiert man Spam als „ alle Maßnahmen die ausschließlich dazu dienen das Ranking bei den Suchmaschinen zu beeinflussen“ (so Glöggler, Suchmaschinen im Internet, S. 195), werden die meisten Doorway Pages als Spam anzusehen sein.

Yahoo hatte als einer der ersten auf das Problem reagiert und Doorway Pages aus dem Index entfernt. Andere Suchmaschinen sind rasch nachgezogen. Als Grund, warum eine Webseite nicht in den Index aufgenommen wird, steht bei Google zu lesen: „You employ doorway pages. Google does not encourage the use of doorway pages. We want to point users to content pages, not to doorways or splash screens.”

Im FAQ von Yahoo ist zu lesen, dass irreführende oder verkaufssteigenden Seiten die Qualität des Index mindern und die Suche frustrierend und ineffizient machen. Als Beispiel, dass Yahoo veranlassen könnte, eine Site von dem Index zu sperren, sind maschinell erzeugte Seiten mit minimalem oder keinem Inhalt, deren einziger Zweck darin besteht, den Benutzer auf eine andere Seite zu schalten, erwähnt.

Suchmaschinen haben auf Doorway Pages zudem damit reagiert, dass sie heute in der Regel nicht mehr als zwei Seiten einer Website in den Suchergebnissen zum gleichen Keyword anzeigen. Deshalb sollte heute ausgeschlossen sein, dass – wie früher möglich – mehrere Doorway Pages einer Website die vorderen Suchergebnisplätze einnehmen.

Sollte man heute noch Doorway Pages verwenden?

Solange das Ranking einer Webseite in erster Linie von dessen Inhalt abhängig war, konnte mit Doorway Pages in der Tat ein hohes Ranking erzielt werden. Mittlerweile gelingt dies kaum noch. Algorithmen wie der von Google verwendete setzen in starkem Maße auf die Linkpopularität einer Webseite. Doorway Pages sind aber in aller Regel schlecht verlinkt. Wer sollte auch einen Link zu einer Webseite ohne richtigen Inhalt setzen?

Auf Doorway Pages sollte deshalb nur im Notfall zurückgegriffen werden, etwa dann, wenn das Design der eigentlichen Website nicht verändert werden soll. Das kann der Fall sein, wenn ein Webmaster in starkem Maße Flash oder JavaScript verwendet. Diese Gestaltungselemente können Suchmaschinen nicht richtig interpretieren.

Ein niedriges Ranking ist die Folge, dem mittels einer vorgeschalteten Doorway Page (mit zumindest geringen inhaltlichen Komponenten) begegnet werden kann. Doorway Pages können damit durchaus eine sinnvolle Einsatzmöglichkeit haben. Suchmaschinen dürften diese dann in der Regel auch anerkennen und von Sanktionen absehen.

Wer allerdings das Risiko scheut, gänzlich aus dem Index ausgeschlossen zu werden, sollte schon mit Blick auf die nur noch begrenzten Erfolgsaussichten, mit ihnen ein hohes Ranking zu erzielen, besser auf den Einsatz von Doorway Pages vollständig verzichten. Der mühselige Weg, seine Webseite sowohl für Personen als auch für Suchmaschinen zu optimieren, dürfte langfristig gesehen der erfolgsversprechende und sichere Weg sein.

Doorway Domains

Doorway Domains (auch als Ghost Domain oder Shadow Domain bezeichnet) übertragen das Konzept von Doorway Pages auf die Ebene der Domain. Anstelle eine Webseite für eine Suchmaschine zu optimieren, erfolgt hier die Ausrichtung einer anderen Domain auf bestimmte Schlagworte, um Nutzer über diese zur Haupt-Domain zu locken.

Cloaking

Doorway Pages sind für Suchmaschinen optimierte Webseiten, die ein hohes Ranking erreichen sollen und Nutzer dann über einen Link oder die Verwendung eines Refresh-Tags zu den eigentlichen Inhalten führen. Die Doorway Page ist für Besucher uninteressant und sie sollen diese am besten auch gar nicht erst zu Gesicht bekommen.

Eine technisch fortschrittlichere Technik stellt hier das sogenannte Cloaking (auch unter den Namen Ghost Pages, Spoon Feeding, IP Delivery, Stealth Pages, Food Pages, Phantom Pages bekannt) dar. Dieses basiert auf der Idee, den Spidern von Suchmaschinen eine andere Webseite zu präsentieren als menschlichen Besuchern.

Gelungene Optik und für Suchmaschinen optimierte Inhalte sind eben nicht immer einfach miteinander vereinbar. Suchmaschinen sollen deshalb eine Webseite zu Gesicht bekommen, die auf bestimmte Schlüsselwörter hin optimiert ist und die keine das Ranking behindernden Effekte wie JavaScript verwendet, Besucher eine graphisch aufwendig gestaltete Webseite.

Jeder Surfer wird schon einmal auf eine Webseite gestoßen sein, die als Suchergebnis angegeben war, das Suchwort aber gar nicht enthielt. Dies kann auf Cloaking beruhen. Bei Google besteht hier die Möglichkeit, sich die Webseite so anzusehen, wie sie dem erfassenden Roboter präsentiert wurde, nämlich durch Anklicken des Links „Im Cache“ in den Google Suchergebnisisen.

Webmaster können eine Aufnahme in den Cache aber durch entsprechende Metainformationen verhindern, die Google auch beachtet:

Auf eine technische Definition gebracht, versteht man unter Cloaking also ganz generell das Ausliefern unterschiedlicher Inhalte unter derselben URL in Abhängigkeit von vorgegebenen Kriterien. Das Ziel eines hohen Rankings bei Suchmaschinen ist dabei nur eine der möglichen Einsatzmöglichkeiten.

Google selbst z. B. bestimmt die geographische Herkunft eines Surfers und präsentiert unterschiedliche AdWord Werbeanzeigen. Sofern als Rechtfertigung für Cloaking allerdings angegeben wird, es solle vermieden werden, dass Konkurrenten die eigene Optimierung analysieren können und deshalb die für Suchmaschinen präparierte Webseite möglichst verborgen bleiben sollte, ist dies Unsinn.

Es gibt zahlreiche Programme, die einen Webseiten so betrachten lassen, wie sie Suchmaschinen sehen können z. B. der Search Engine Simulator.

Wie kann ein menschlicher Besucher von einem Roboter unterschieden werden?

Die einfachste Möglichkeit einen Roboter zu erkennen, ist es, die CGI-Variable http_USER_AGENT abzufragen. Darin ist der Name des Clients abgespeichert, der eine Webseite anfordert.

Handelt es sich um einen Browser (z. B. Internet Explorer oder Google Chrome), liegt es nahe, auf einen menschlichen Besucher zu schließen und wird die „normale“ Webseite übermittelt, stammt die Anfrage hingegen von einem Spider (z. B. Googlebot, KIT-Fireball), bekommt dieser nur die optimierte Webseite zu Gesicht.

Man spricht von einer Browserweiche. Theoretisch kann sogar unterschiedlichen Spidern eine jeweils auf die betreffende Suchmaschine und ihren Algorithmus hin optimierte Webseite präsentiert werden.

Suchmaschinen haben sich gegen diese Art der Täuschung allerdings gewappnet. Ihre Roboter können auch Browser-typische Kennungen liefern und damit einfache Browserweichen überlisten. Erscheint eine Webseite verdächtig, wird ein entsprechend konfigurierter weiterer Roboter zu der Webseite geschickt, der dessen wahres Gesicht ermitteln soll.

Effektiver ist daher ein System, bei dem zusätzlich die IP-Adresse des Besuchers abgefragt wird (sogenanntes IP-Cloaking). Dabei erfolgt ein Abgleich der IP-Adresse des Besuchers mit allen in einer Datenbank gespeicherten IP-Adressen von Suchmaschinen.

Entsprechende Listen lassen sich entweder kostenlos im Internet finden oder können in professioneller Qualität auch gekauft werden. Diese Möglichkeit ist damit in der Regel zeit- und kostenintensiv, da sie eine vollständige und aufwendig zu pflegende IP-Adressendatenbank voraussetzt.

Spider IP-Adressen von Google sind z. B.:

  • 209.185.253.167 c2.googlebot.com
  • 209.185.253.168 c3.googlebot.com
  • 209.185.253.169 c1.googlebot.com
  • 209.185.253.170 c4.googlebot.com

Wie reagieren Suchmaschinen auf Cloaking?

Cloaking wird von Suchmaschinen zumeist als Spam betrachtet und entsprechend geahndet. Dies kann wieder dazu führen, dass die komplette Webseite aus dem Index der Suchmaschine gelöscht wird.

Dabei zeigen die Suchmaschinen mit ihrer regionalisierten Werbung selbst, dass die Technik des Cloaking als solche nicht illegitim oder unethisch ist, wie gelegentlich behauptet wird, sondern durchaus sinnvolle Anwendungsfelder haben kann.

Nur wenn sie zu Spamzwecken eingesetzt wird, ist sie in der Tat zu missbilligen. Dies ist zumindest dann der Fall, wenn das optimierte und das den Nutzern tatsächlich übermittelte Dokument erheblich voneinander abweichen. Bei Google findet sich zu Cloaking z. B. folgende Ausführungen:

„Unter „Cloaking“ versteht man das Verhalten einer Website, an Suchmaschinen, die sie durchlaufen, veränderte Webseiten zurückzugeben. Der Webserver wurde also so programmiert, dass er an Google andere Inhalte zurückgibt als an normale Benutzer der Site, in der Regel mit der Absicht, das Suchmaschinen-Ranking zu verbessern.

Dies führt unter Umständen dazu, dass Benutzer nicht die erwarteten Inhalte finden, wenn sie auf ein Suchergebnis klicken. Um die Genauigkeit und Qualität unserer Suchergebnisse beizubehalten, kann Google alle Sites oder Site-Autoren, die versuchen, mithilfe von Cloaking ihr Such-Ranking zu beeinflussen, dauerhaft aus dem Index streichen.“

Sollte man auf Cloaking verzichten?

Das für Doorway Pages Gesagte gilt grundsätzlich auch hier. Cloaking kann es ermöglichen, dass eine Webseite ein hohes Ranking erhält. Die den Spidern übermittelte Webseite ist auf bestimmte Suchworte hin optimiert und der den Nutzern übermittelte Inhalt sollte qualitativ genügen, dass im Gegensatz zu Doorway Pages Links zu der Webseite gesetzt werden.

Das Risiko, dass das Cloaking bemerkt wird – und sei es, dass ein konkurrierendes Unternehmen das Spamming der Suchmaschine meldet (z. B. bei Google unter Spamreport) – und die gesamten Webseite vom Index ausgeschlossen wird, sollte einem zumindest bewusst sein. Suchmaschinen lassen sich i.d.R. nicht auf Dauer austricksen. Webdesigner, die Cloaking empfehlen, sollten daher auf die Gefahren hinweisen.

Pagejacking

Sowohl bei Doorway Pages als auch beim Cloaking wird versucht, mit optimierten Webseiten ein hohes Ranking zu erzielen. Die Webseiten sind in beiden Fällen für die Spider von Suchmaschinen bestimmt und aufgrund ihrer oft unattraktiven Inhalte mit unsinnigen Anhäufungen von Schlüsselwörtern nicht für menschliche Besucher.

Als Pagejacking bezeichnet man es nun, wenn als optimierte Webseite eine exakte Kopie einer anderen Webseite verwendet wird. Der Webmaster sucht sich eine Webseite mit einem hohen Ranking, kopiert diese – was in den meisten Fällen gegen das Urheberrecht verstoßen wird – und meldet sie bei den Suchmaschinen an.

Damit soll erreicht werden, dass die kopierte Webseite ebenfalls an attraktiver Stelle bei den Suchergebnissen erscheint. Nutzer, die den entsprechenden Link anklicken, werden jedoch nicht zu der Kopie weitergeleitet, sondern sofort weiter zu den eigentlichen eigenen Inhalten. Oft haben diese mit denen der Kopie nicht das geringste zu tun. Nicht selten wurde dieser „Trick“ verwendet, um Nutzer zu Webseiten mit schmuddeligen Angeboten zu locken.

Prominente Opfer des Pagejackings waren bereits Disney, CNet und der Discovery Channel. Mittlerweile dürfte Pagejacking nicht nur in der Regel rechtswidrig sein, sondern auch wenig erfolgsversprechend. Die Prämisse, dass die Kopie ebenfalls ein hohes Ranking erzielen wird, hatte nur solange Berechtigung, als das Ranking maßgeblich auf dem Inhalt und der Optimierung auf bestimmte Schlüsselwörter hin beruhte.

Mit der Ausrichtung auf die Link Popularity ist dies nicht mehr der Fall. Zu der gekidnappten Webseite weisen in der Regel keine Links oder zumindest nicht so viele wie zu dem Original. Ein Abfallen in den Suchergebnissen gegenüber dem Original ist die Folge.

Link Farms

Doorway Pages und Cloaking sind in Zeiten, in denen Suchmaschinen das Ranking zu einem großen Teil von der Linkpopularität einer Webseite abhängig machen, nur noch sehr bedingt geeignet, diese auf die vorderen Ergebnisplätze zu bringen. Wichtig ist es, zu erreichen, dass möglichst viele Links zu der eigenen Webseite führen. Je prestigeträchtiger und höher bewertet die auf einen verweisende Webseite ist, desto besser für einen.

Um nun möglichst rasch viele Verweise zu bekommen, sind in großer Zahl sogenannter Linkfarmen entstanden. Es handelt sich dabei um nichts anderes als um Webseiten, die eine Unmenge von Links zu anderen Seiten enthalten, die ihrerseits wieder auf die betreffenden Webseiten zurück verlinken.

Die Linkfarm-Webseiten haben in aller Regel keinen weiteren Inhalt außer den Links, die allein dem Zweck eines höheren Rankings dienen sollen, und werden deshalb von Suchmaschinen zurecht als Spam eingestuft (Google: „artificial linkage“). Webseiten, die sich an Linkfarmen beteiligen, können entweder in ihrem PageRank herabgesetzt oder völlig aus dem Index gestrichen werden.

Es ist auch nicht besonders unwahrscheinlich, dass eine Linkfarm als solche erkannt wird. Bei einer Analyse eines Dokuments durch die Software der Suchmaschine kann auch das Verhältnis des Textes zu den Links ermittelt werden. Wird ein nur sehr geringer Textanteil festgestellt, kann dies als Indiz für eine Linkfarm gesehen werden.

Doch selbst wenn eine Linkfarm als solche nicht erkannt werden sollte, bestehen kaum Vorteile. Die Wahrscheinlichkeit, über einen derartigen Link Besucher zu erhalten, ist gering. Es würde schon fast an ein Wunder grenzen, wenn jemand in der Vielzahl der Links ausgerechnet den zur eigenen Webseite anklicken sollte.

Auch der Einfluss auf das Ranking ist minimal. Je weniger Links eine Webseite nämlich enthält, desto wichtiger werden diese von einer Suchmaschine eingestuft. Umgekehrt sind Links von einer Webseite, die mit diesen überfrachtet sind, so gut wie nichts wert.

Unseriöse Unternehmen bieten nicht selten an, Webseiten in Hunderten oder Tausenden von Verzeichnissen aufzunehmen und tragen die Webseiten ihrer Kunden dann in Linkfarmen ein, ohne diese über die damit verbundenen Gefahren zu informieren.

Hier ist also Vorsicht geboten. Das Geld ist anders besser investiert! Hände weg von Linkfarmen! Lieber wenige gute Links von seriösen und selbst hoch bewerteten Webseiten als eine Unzahl wertloser Links von „dubioser“ Herkunft.

Guestbook Links

Gästebücher finden sich auf zahlreichen Webseiten. Ein Eintrag in diese kann mit einem Link zu der eigenen Webseite verbunden werden. Das kann Webmaster auf die Idee verfallen lassen, sich in Hunderten oder gar Tausenden von Gästebüchern einzutragen, um ihre Linkpopularität zu erhöhen.

Das Auffinden einer großen Zahl von Gästebüchern ist mittels einer Suche bei Google (z. B. „Sign my guestbook“) ein leichtes. Doch lohnt sich der Eintrag auch? Vermutlich nicht! Links in Gästebüchern stehen meist in keinem Zusammenhang mit den verlinkten Webseiten und können damit auch kaum als „Empfehlungen“ aufgefasst werden.

Die Suchdienste äußern sich zu dieser Methode zwar nicht, es erscheint aber nicht unwahrscheinlich, dass sie die entsprechenden Links jetzt schon nicht mehr berücksichtigen. Links von Gästebüchern sind sehr leicht erkennbar (in der URL der Webseite kommt in der Regel das Wort Guestbook vor) und können deshalb sehr einfach ignoriert werden, wenn dies gewollt ist.

Meta-Tags

Meta-Tags sind Meta-Daten, also Informationen über Daten. Sie sind in der Programmiersprache HTML erstellte Anweisungen und damit Bestandteil einer Webseite. Jedoch sind sie für Besucher grundsätzlich unsichtbar und nur über den Quelltext einsehbar und stehen dort innerhalb des Head Tags.

Sie zielen vor allem auf die Spider von Suchmaschinen ab und sollen diesen zusätzliche Informationen zu einer Webseite übermitteln. Dies können Schlüsselwörter (Keyword Meta-Tag), eine Beschreibung der Seite (Description Meta-Tag) oder Informationen zur Sprache oder zum Autor sein.

Alle Meta-Tags bestehen dabei aus den Bestandteilen „name“ und „content=“. Ersterer bezieht sich auf die Eigenschaft, die näher beschrieben werden soll, letzterer enthält die eigentlichen Angaben. Meta-Tags innerhalb des Head Tags können damit z. B. folgende Gestalt haben:

Wie gehen Suchmaschinen mit Meta-Tags um?

Keyword Meta-Tags sind für Besucher nicht sichtbar. Mit ihnen wurde daher auch rasch Missbrauch getrieben und die von Suchmaschinen in ihren frühen Tagen geprägte Prämisse, ein Webmaster kenne den Inhalt seiner Website am besten, weshalb seiner Beschreibung besonders große Bedeutung zukomme, stellte sich rasch als falsch heraus.

Zu oft wurden Meta-Tags verwendet, die mit dem eigentlichen Inhalt nichts mehr zu tun haben. Dies führte dazu, dass z. B. bei den verschiedensten Suchbegriffen immer wieder Pornoseiten auf den vorderen Rängen auftauchten.

Keyword Meta-Tags

Die Zeiten, in denen Keyword Meta-Tags besondere Bedeutung zugemessen wurde und sogar die mehrmalige Wiederholung von Wörtern für noch größere Relevanz sprach, sind vorbei.

Google und FAST haben den Keyword Meta-Tag noch nie berücksichtigt und ältere Suchmaschinen wie Lycos oder Yahoo berücksichtigen ihn seit 1998 bzw. Mitte 2002 nicht mehr. Die meisten Suchmaschinen messen den Keyword Meta-Tags somit heute keine Bedeutung mehr zu.

Description Meta-Tag

Zwei Dinge hinsichtlich des Description Meta-Tags muss man auseinander halten: Suchdienste können den Meta-Tag als ein Kriterium für das Ranking heranziehen und / oder bei der Darstellung der Suchergebnisse als erläuternden Text. Letzteres ist bei vielen Suchmaschinen der Fall.

Als Beschreibungstext wird der entsprechende Inhalt des Meta-Tags bis zu einer bestimmten Zeichenzahl (Google 160, Fireball 300, Lycos 180) wiedergegeben. Eine aussagekräftige Beschreibung ist daher hilfreich, damit eine Webseite bei den Suchergebnissen auch angeklickt wird.

Eine Erhöhung der Klickrate kann wiederum bei einigen Suchmaschinen Einfluss auf das Ranking einer Webseite haben. Soweit keine Beschreibung verwendet wird, werden in der Regel die ersten Zeichen des Dokumententextes angezeigt.

Description Meta-Tags werden wegen der bereits diskutierten Missbrauchsgefahr als Faktor für das Ranking kaum mehr beachtet. Einige Suchmaschinen berücksichtigen sie zwar noch, allerdings mit einem zu vernachlässigbaren Einfluss.

Title Meta-Tag

Die wichtigste Meta-Information ist der Titel einer Webseite und dieser spielt bei den Suchmaschinen nach wie vor eine große Rolle. Deshalb sollte ein möglichst aussagekräftiger Titel mit prägnanten Worten gewählt werden. Der Titel wird bei den Suchergebnissen mit angezeigt und entscheidet maßgeblich darüber, ob ein Nutzer den Link anklickt. Ferner erscheint der Titel auch als Bezeichnung der Website, wenn ein Surfer ein Lesezeichen setzt.

Keywords innerhalb des Title Meta-Tag kommt eine herausragende Bedeutung zu. Die mehrmalige Verwendung des gleichen Keywords ist allerdings fruchtlos. Suchmaschinen erkennen diesen Spamming-Versuch und erfassen die Keywords in der Regel nur einmal.

Nun kann auch hier wieder der Versuch unternommen werden, im Titel Schlüsselwörter zu verwenden, die den Dokumenteninhalt nicht wiederspiegeln. Im Zuge einer Dokumentenanalyse können Suchmaschinen dies aber erkennen und ggf. als Spam-Versuch deuten.

Aus diesem Grund empfiehlt es sich auch nicht, eine pauschale Beschreibung für eine Website zu verfassen, sondern eine für jede einzelne Webseite angepasste.

Resümee

Zusammenfassend lässt sich sagen, dass Suchmaschinen bezüglich des Website-Rankings Meta-Tags weitgehend ignorieren und nur den tatsächlich lesbaren Text bewerten. Lediglich der Titel hat noch Einfluss auf das Ranking. Da dieser für Besucher sichtbar ist, eignet er sich nur sehr bedingt für die Verwendung websitefremder Schlagwörter.

Keyword Stuffing

Wie im Kapitel „Meta-Tags“ beschrieben, versuchen Webmaster mit der häufigen Verwendung von Schlüsselwörtern oder unzutreffenden Beschreibungen ihrer Webseite ein hohes Ranking bei Suchmaschinen zu erreichen. Vergeblich, weil Suchmaschinen auf die Missbrauchsmöglichkeiten reagiert haben und Keyword Meta-Tags mittlerweile völlig ignorieren.

Webmaster könnten nun auf die Idee verfallen, die Schlüsselwörter, unter denen sie gefunden werden wollen, nicht in Meta-Angaben zu verstecken, sondern sie möglichst häufig im Text unterzubringen. Damit Nutzern dies verborgen bleibt, werden diese in der Farbe des Hintergrunds geschrieben (sogenannter Hidden Text).

Eine weitere Alternative ist es, eine so kleine Schriftgröße zu verwenden, dass Besucher sie nicht mehr erkennen können. Ferner werden Schlüsselwörter möglichst weit oben im Text verwendet, um eine noch größere Relevanz vorzuspiegeln.

Wenn die Schlüsselwörter für menschliche Besucher unsichtbar sind, bezeichnet man das auch als (invisible) Keyword Stuffing. Waren diese Methoden vor mehreren Jahren noch ein durchaus erfolgsversprechendes Rezept, so haben sich Suchmaschinen heute auf diese Arten des Missbrauchs eingestellt und können sie erkennen – Selbst die geringfügige Abweichung von Text und Hintergrund, die für das menschliche Auge als einheitlich erscheint – und entsprechend ahnden.

Bestenfalls ignorieren sie Keyword Stuffung, bei weniger Glück wird das Verhalten mit einem niedrigeren PageRank oder den Ausschluss einer Website vom Index bestraft.

Florida-Update

Möglichkeiten zur Manipulation von Suchmaschinen gibt es zahlreiche, wie die bisherigen Erörterungen gezeigt haben. Suchmaschinen verbieten zahlreiche von diesen als „Spam“. Sanktioniert werden können diese freilich nur dann, wenn sie auch entdeckt werden. Und hier ist die Technik der Suchdienste noch längst nicht ausgereift.

Manipulierte Ergebnisse setzten insbesondere dem Marktführer Google so stark zu, dass Ende 2003 die Suchergebnisse nicht mehr der ehemals von Google gewohnten Qualität entsprachen. Schlagzeilen über verärgerte Benutzer waren allerdings das letzte, was Google angesichts des angeblich avisierten Börsengangs gebrauchen konnte.

Am 16.11.2003 hatte Google deshalb massiv zurückgeschlagen, um verlorenes Vertrauen der Nutzer zurückzugewinnen und Spam zu eliminieren. An diesem Tag sahen die Suchergebnisse zum Teil gravierend anders aus als noch am Vortag. In einigen Fällen war von Anbietern, die bis zu diesem Zeitpunkt die ersten 100 Ergebnisse stellten, kein einziger mehr unter den Top 100 zu finden.

Tausende, wenn nicht Millionen von Webseiten, die bislang bezüglich bestimmter Suchbegriffe unter den Top 10 zu finden waren, wurden weit zurückgesetzt bzw. waren gar nicht mehr auffindbar. Für betroffene Unternehmen ein massiver Eingriff, der mit teils gravierenden Umsatzeinbußen verbunden war. Teils versiegte der Besucherstrom schlagartig.In einschlägigen Diskussionsforen war rasch von einem Blutbad oder Massaker die Rede.

Google hatte es wohl insbesondere auf Linkfarmen abgesehen. Seitdem die Linkpopularität großen Einfluss auf das Ranking hat, gewann das Kaufen oder der Handel mit Links zu dem einzigen Zweck, den eigenen PageRank Wert zu erhöhen, an Bedeutung. Der alte Algorithmus berücksichtigte alle Links zu einer Webseite, unabhängig davon, ob sie zu dem Inhalt passen.

Die Idee, Links gäben Auskunft über die Qualität einer Website, da sie Ausdruck einer Wertschätzung sind, war angesichts des Handels mit Links zu einer Utopie verkommen. Google arbeitet deshalb nun ergänzend zum PageRank mit dem sogenannten LocalRank.

Zunächst ermittelt Google die Webseiten, die die gewünschten Schlüsselwörter enthalten, und analysiert dann die Links innerhalb dieser Webseiten. Links, z. B. von Linkfarmen, stehen in keinem Zusammenhang mit der Suchanfrage. Diese Links sowie alle anderen sachfremden werden damit bei der Berechnung des LocalRanks nicht mehr berücksichtigt.

Spam-Links werden so ihrer Relevanz beraubt. Der LocalRank zusammen mit allen anderen Faktoren (auch dem PageRank) bestimmt dann das endgültige Ranking einer Webseite.

In der Fachwelt wurden die Veränderungen als das „Florida Update“ bekannt. Google selbst hat zu diesen offiziell nicht Stellung bezogen, so dass rasch verschiedenste Gerüchte kursierten. Aller Wahrscheinlichkeit nach hat Google Ende November 2003 Änderungen am Ranking-Algorithmus vorgenommen, denen im Januar 2004 (sogenannten Austin-Update) weitere Anpassungen folgten, die massiv auch den deutschsprachigen Teil von Google betroffen haben.

Änderungen am Algorithmus sind an sich nichts besonderes: Alle Suchdienste nehmen von Zeit zu Zeit Veränderungen vor, um die Qualität der Suchergebnisse weiter zu verbessern. Dies hat automatisch immer zur Folge, dass sich das Ranking einzelner Webseiten verändert. Während kleinere Anpassungen kaum zu einem massiven Aufschrei führen, war das beim Florida-Update anders, da eine Vielzahl von Unternehmen betroffen war.

Google hat lange Zeit einmal im Monat – meistens in der Mitte – seinen Index um neue Webseiten ergänzt, nicht mehr existierende Webseiten herausgenommen bzw. kleinere Veränderungen am Algorithmus vorgenommen. Dies hat jeweils Änderungen im Ranking bewirkt und war daher von den Optimierern von Webseiten mit großer Aufmerksamkeit verfolgt worden.

Bekannt geworden ist diese Art des Updates unter dem Begriff „Google Dance“. Zurückzuführen ist dies darauf, dass der Update-Prozess sich wegen der Menge des Datenmaterials über mehrere Tage hinzieht und nicht auf allen Rechnern zeitgleich erfolgt – Google verfügt über 13 Serverparks mit mehr als 20.000 PC’s.

Da Suchanfragen je nach Auslastung von unterschiedlichen Serverparks beantwortet werden, können die Suchergebnisse an den Tagen des Updates leicht voneinander abweichen. Mit speziellen Tools, ist es möglich gezielt Anfragen an verschiedene Serverparks zu senden. Weichen die Ergebnisse der einzelnen Suchanfragen voneinander ab, findet gerade wieder ein Update statt. Google „tanzt“.

Eines der aufkommenden Gerüchte zum Florida-Update besagte, dass Google kommerzielle Webseiten bewusst von den vorderen Plätzen eliminiere, um diese so zur Schaltung von AdWords Werbeanzeigen zu motivieren.

Google streitet dies ab und diese erscheint durchaus glaubhaft, wurde doch im Zuge der Veränderungen auch berichtet, dass Unternehmen, die keine AdWord Anzeigen schalten weiterhin gut platziert sind und einige Unternehmen, die an diesem Werbeprogramm teilnehmen, aus den Top Positionen verdrängt wurden.

Zwar lässt sich nicht leugnen, dass in erster Linie E-Commerce Webseiten von den Veränderungen betroffen waren, doch dürfte dies schlicht an dem neuen Algorithmus liegen, der darauf abzielt, Erfolge durch Spam einzudämmen. Solche Maßnahmen dürften in erster Linie von wirtschaftlich orientierten Anbietern eingesetzt worden sein.

Google hat es gegeben, Google kann es auch wieder nehmen! Die Änderungen haben gezeigt, welch großen wirtschaftlichen Einfluss Google hat. Änderungen im Algorithmus gab es schon häufig, doch noch nie eine solch gravierende Änderung bei einer Suchmaschine mit einem solch großen Marktanteil.

Früher hat es sich nicht so dramatisch ausgewirkt, wenn die eigene Webseite bei einer von mehreren bedeutenden Suchmaschinen zurückgestuft worden war. Sich auf eine hohe Rankingposition zu verlassen und darauf zu vertrauen, dass Google ohne jegliche Gegenleistung Kunden an prominenter Stelle auf das eigene Unternehmen aufmerksam macht, hat sich als Fehler herausgestellt.

Abschließend noch der Hinweis auf positive Aspekte des Florida-Updates: Zahlreiche Dialer- und Spam-Seiten sollen von den Top-Platzierungen verdrängt worden sein. Ferner scheint der neue Algorithmus hoch optimierte Webseiten, die nur dazu dienen, das Ranking zu verbessern, besser als das entlarven zu können, was sie eigentlich sind: Leere Hüllen. Webseiten mit relevanten Inhalten scheinen favorisiert zu werden.

Projekteplattform: Freelancer
Freelancer
Kernbereiche:
Freelancer Aufgaben
  • Programmier-aufträge vergeben und finden
  • Kostenlose Joberstellung
  • 15 € Startguthaben geschenkt
Bewerte diesen Artikel
1 Stern2 Sterne3 Sterne4 Sterne5 Sterne

1 Bewertung(en), durchschnittlich: 5,00 von 5

Loading...

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

How-to-WordPress.de unterstützt dofollow und ist somit nofollow frei.