Seit einigen Wochen geistern, wie bei jeder Update-Ankündigung des Google-Suchalgorithmus, wieder diverse Vermutungen über die Effekte und die Wirkungen durch die verschiedenen Foren. Es wird das Interview der Google-Mitarbeiter Amit Singhal und Matt Cutts mit wired.com ausführlich interpretiert und geschaut, wie sich das in den USA auf google.com inzwischen aktive Update auf Webseiten ausgewirkt hat.

Auch wir wurden von Kunden auf unsere Meinung zum Thema angesprochen. Wie bekannt ist, lebt Google davon – über die Werbeeinnahmen – , dass die Suchmaschine gerne und fast automatisch frequentiert wird. Insbesondere der enorme Marktanteil in Europa und vor allem in Deutschland zeugt davon, dass die Ergebnisse, die die Google-Suche liefert, für den Benutzer passend sind. Zumindest sind die Ergebnisse passender, als die Ergebnisse, die die Marktbegleiter liefern.

Vom Prinzip her sollte Suchmaschinenoptimierung / SEO trivial sein:

  • Man erstelle eine für den Besucher optimale Seite, denn
  • die Suchmaschine bildet das Interesse des Benutzers optimal nach und gibt daher die Seite an oberster Stelle aus.

Wenn Google einen solchen hellseherischen Algorithmus hätte (schließlich ist der Begriff “optimal” ja besucherindividuell), dann wäre es eine heile Welt und SEO-Agenturen müssten sich keine Gedanken machen, wie sie Google austricksen könnten.

So jedoch meinen Webmaster,

  • ihre Seiten würden nicht korrekt gelistet und versuchen mit “Optimierungen” und Tricks ihre Seiten für die Suchen ihren erwarteten Klientel nach oben zu bringen.
  • Hinzu kommt, dass viele Besuche auch viele Werbeeinblendungen auf den eigenen Seiten versprechen, es also ein Ziel sein kann, viele Besucher auf eine Webseite zu locken, auch wenn die Besucher danach sofort abspringen.

Tatsächlich konnte man in den letzten Monaten beobachten, dass Webseiten mit “minderwertigem Inhalt” häufig bei Google oben angezeigt wurden. Hierbei ist “minderwertiger Inhalt” subjektiv zu betrachten: Es ist der Inhalt, den man als Suchender gerade nicht gesucht hat. Auf den zu klicken also nur Zeit gekostet hat.

Es ist daher sehr zu begrüßen, dass Google versucht, minderwertigen Inhalt auszufiltern.

Die Kernfrage ist jedoch, wie unterscheidet sich nun minderwertiger Inhalt von hochwertigem Inhalt – und das vor dem Hintergrund subjektiver Suchen? Und wie kann ein technischer Algorithmus eine solche Entscheidung fällen.

Auf den ersten Gedanken kommen hierbei folgende Methoden in Frage:

  • statistische Bewertungen auf Grund des Verhaltens der bisherigen Besucher – schließlich erfasst Google, auf welche Seiten der Suchende geklickt hat und vermutlich sogar (mittels Google-Analytics) wie er sich dort weiter verhält,
  • formale Bewertungen an Hand von HTML-Formatierungen,
  • sprachliche Bewertungen an Hand der genutzten Worte und Wortkombinationen und ihrer Bedeutung und Häufigkeit in der verwendeten Sprache,
  • inhaltliche Bewertungen an Hand des Vergleichs mit vermutlich ähnlichen Seiten,
  • die Kombination der Bewertungen in Kombination mit von Menschen bewerteten Vergleichsseiten.

Dieser Artikel ist Teil einer kurzen Artikelserie und wird fortgesetzt.