Samstag, 8. Dezember 2012

Verweildauer als Qualitätsindikator und Rankingfaktor

Ich ranke also bin ich


Mein Blog gibt es jetzt seit fast genau 2 Monaten und heute sah ich das:

Es lohnt sich scheinbar auf jeden Fall, auf gewisse Thematiken genauer einzugehen und den Usern interessanten Content und Inhalte zu liefern, so wie Google das ja auch schon immer propagiert.




Ich kann jetzt nicht unbedingt sagen, dass ich extrem hohe Besucherzahlen verzeichne, aber das Thema SEO und Google AdWords ist jetzt auch kein "Mode Shopping Thema".

Die Suchanfragen bei denen ich angezeigt werde sind im Großen und Ganzen alle auf Google, SEO oder AdWords bezogen. Der enorme Anstieg der Impressionen sagt mir, dass mir Google zu diesem Thema eine gewisse Autorität und Relevanz zuschreibt. Doch wieso eigentlich?


Verweildauer


Natürlich habe ich heute angefangen zu mutmaßen, wieso denn mit einem Mal meine Relevanz so gestiegen ist bzw. wieso mein Blog jetzt stärker bei Suchanfragen berücksichtigt wird.

Die erste Möglichkeit wäre simpel: Es gibt momentan einfach sehr viele Suchanfragen zum Thema AdWords und Google. Die Weihnachtszeit steht ja auch bevor und außerdem liegt der Schwerpunkt meines Blog ja auf Google, SEO und etwas AdWords.

Die zweite Möglichkeit ist, dass die Suchmaschinen die Verweildauer der Besucher messen; zusätzlich zu allen anderen Daten die messbar sind. Es ist ja auch bekannt, dass z.B. diese Faktoren bei der Berechnung des Ranking mit berücksichtigt werden. Ich habe z. B. eine recht hohe durchschnittliche Besuchszeit und eine relativ geringe Ausstiegsrate.

Klickt ein Nutzer auf ein Suchergebnis ist es ja für Google schon relevant, wie lange er auf der Seite bleibt. Eine lange Verweildauer sagt allgemein aus, dass der Suchende hier fündig geworden ist und die Seite zu diesem bestimmten Keyword relevant ist. Google kann da ja auch alle anderen Daten anderer Seiten vergleichen.

Heißt: Bleiben die Besucher lange auf meinem Blog, dann lesen Sie scheinbar auch wirklich was da steht. Für Google wäre das ein ziemlich einfacher Weg um z. B. überoptimierte Seiten, die nur gut ranken aber keinen wirklich guten Inhalt haben, ausfindig zu machen und im Ranking abzustrafen.
Ich bezweifle ob die Crawler und der Algorithmus schon soweit sind, dass sie einen Text oder Content allgemein auf Vorhandensein von Logik und Kontext prüfen und bewerten können. Beispiel: Geben Sie Google mal ein Buch von Charles Bukowski. Google wird Ihnen sicher sagen können, dass es in dem Buch fast nur um Sex, Alkohol und Frauen geht; das kann der Crawler ja anhand der Keyword Dichte ausrechnen. Aber kann er Ihnen auch sagen, ob der Autor einen guten Schreibstil hat oder Sie anspricht? Nein! Deshalb bräuchte Google Indizien für Qualität.

Nutzerverhalten als Qualitätsindikatoren


Hier könnte ich noch eine meiner heiklen Theorien einwerfen:

Google erfasst den gesamten Inhalt einer Seite und setzt ihn in Relation mit der Verweildauer bzw. der durchschnittlichen Lesegeschwindigkeit. 

Also wie lange braucht ein Nutzer um 100 Wörter zu lesen. Sagen wir mal 100 Wörter entsprechen einer durchschnittlichen Lesegeschwindigkeit von 1 Minute. Wenn jetzt ein User über ein Suchergebnis auf meinem Blog landet und einen Beitrag liest der 200 Wörter hat und nach 2 Minuten wieder "aussteigt" könnte sich Google für die Statistik jetzt sagen: "Der Nutzer hat statistisch den gesamten Beitrag gelesen. Der Content war also hilfreich bzw. informativ".
Das klingt alles logisch, aber ich kann es noch nicht beweisen.

Ich schlussfolgere daraus, dass Google sich irgendwo einen Vermerk im Index speichert: 
"Der Blog von Marcel Schrepel bietet Nutzern informativen und guten Inhalt. Deshalb zeigen wir Ihn zu bestimmten Keywords vermehrt an, denn wir wollen unseren Nutzern ja den besten Content liefern."

Die dritte Möglichkeit ist, dass das alles großer Unsinn ist und ich einfach Glück hatte. Es soll ja Leute geben die so etwas sagen ;-)

Schönen zweiten Advent Euch!


Keine Kommentare:

Kommentar veröffentlichen