Wer ein Web Analytics Tool, wie z.B. Google Analytics, installiert hat, der geht natürlich davon aus, dass die dort angezeigten Werte korrekt sind.
Wer allerdings schon mal mehrere Analytics-Lösungen im Einsatz hatte weiß, dass diese alle mehr oder wenig stark voneinander abweichende Besucherzahlen ermitteln.
Doch die Frage ist, wie viele Besucher hat man wirklich und kann man das herausfinden?
Wie viel Traffic habt ihr wirklich?
Wer Google Analytics nutzt, geht davon aus, der er ziemlich akkurate Daten erhält. Das ist aber nur die halbe Wahrheit.
Aus verschiedenen Gründen ist es unmöglich zusagen, wie viele Besucher eine Website wirklich hat und auch Google Analytics, ein an sich sehr gutes Tool, hat deutliche Grenzen bei der Messung des Website-Traffics.
Es gibt sogar Experten, die davon ausgehen, dass die meisten Websites eigentlich bis zu 50% mehr Besucher haben, als die gängigen Analytics-Tools angeben.
Doch wo liegen die Gründe dafür?
Warum oft zu wenig Traffic gemessen wird
Es gibt viele Gründe, warum ein Analytics-Tool, wie Google Analytics, weniger Besucher anzeigt, als es tatsächlich waren.
Darunter finden sich die folgenden Punkte:
- Seite nicht vollständig geladen
Wenn der Ladevorgang einer Seite abgebrochen wird oder der User schnell zu einer anderen Seite klickt, kann der Google Analytics Code evtl. nicht korrekt ausgeführt werden. Deshalb wird dieser Seitenaufruf dann nicht gezählt.Das trifft vor allem dann zu, wenn der Analytics-Code im Footer eingebaut wurde.
- spezielle Unterseiten
Verwendet man spezielle Unterseiten, eigene Layoutvorlagen und bastelt viel am Code herum kann es durchaus sein, dass der Analytics-Code nicht auf allen Unterseiten eingebaut ist und ein Teil des Traffic deshalb gar nicht gemessen wird.Das sollte man auf jeden Fall analysieren und ggf. dafür sorgen, dass der Tracking-Code wirklich auf 100% der eigenen Seiten ausgeführt wird.
- Script- und Ad-Blocker
AdBlocker erfreuen sich einer gewissen Beliebtheit, aber auch generelle Script-Blocker werden von einem Teil der Nutzer verwendet.Das dient vor allem dazu unerwünschte Werbung und Schadcode zu blocken, wirkt sich oft aber eben auch auf den JavaScript-Code von Google Analytics und Co. aus.
- JavaScript deaktiviert
Ein Teil der Nutzer hat Angst von Viren und ähnliches und hat deshalb generell JavaScript deaktiviert. Dadurch wird unter anderem auch Google Analytics blockiert. - Google-Plugin
Google selber hat im Zuge der Datenschutz-Diskussionen rund um Google Analytics zwar nun eine legale Lösung gefunden, aber man bietet seitdem auch ein Browser-Plugin an, welches den Google-Tracking-Code auf Wunsch blockiert.
Wie viele Nutzer auf die eine oder andere Weise die korrekte Ausführung des Tracking-Codes verhindern ist schwer zu sagen. Vermutungen gehen von 20% bis 50% aus, wobei dies sicher auch von der Zielgruppe abhängt.
Ist das wirklich ein Problem?
Im ersten Moment ist es für die meisten Website-Betreiber wahrscheinlich ärgerlich, wenn sie sich bewusst werden, dass Google Analytics und Co. so ungenau sind und in der Regel deutlich weniger Traffic anzeigen, als man wirklich hat.
Ich würde auch lieber sagen können, dass ich 20, 30 oder 50% mehr Traffic hier im Blog habe, als die Statistiken offiziell angeben.
Dennoch ist es aus den folgenden Gründen in der Regel nicht so dramatisch:
Vergleiche sind dennoch möglich, da Websites aus der selben Branche eine ähnliche Nutzerschaft haben. Wenn bei mir also z.B. 20% der Traffics nicht gezählt wird, wird es bei einem Konkurrent wohl recht ähnlich sein.
Das bedeutet, dass man die Werte doch recht gut vergleichen kann.
Wer sein Geld mit Werbung verdient, wird vielleicht der Meinung sein, dass der nicht gemessene Traffic ein Problem ist und man bares Geld verliert, da man z.B. höhere Festpreise verlangen könnte.
Doch auch hier sehe ich das nicht so dramatisch. Oft kommen AdBlocker oder allgemeine Script-Blocker zum Einsatz und diese blockieren eben oft auch die Anzeige der Werbung.
Das bedeutet, dass die 20 oder 30% mehr Traffic, die man vielleicht hat, nicht bedeuten, dass man auch wirklich 20 oder 30% mehr Werbeeinblendungen hätte. Mit einer TKP-Abrechnung ist man hier zudem auf der sicheren Seite.
Generell ist es natürlich unschön, dass die Besucherzahlen in der Regel zu niedrig angegeben werden (bei JavaScript basierten Analyse-Tools), aber große Nachteile hat man dadurch in der Regel nicht.
Mögliche Lösungsansätze
Gibt es eine Lösung für das Problem?
Manch einer schwört auf Log-Files, die vom Server angelegt werden und wirklich jeden Seitenaufruf protokollieren. Die dort zu findenden Zahlen liegen viel höher als das, was z.B. Google Analytics angibt. Allerdings werden dort auch jegliche Bots und Crawler mitgezählt, deren Zahl nicht wirklich gering ist. Deshalb eignen sich Log-File-Statistiken nicht dazu, den wahren Traffic (von realen Personen) zu messen.
Eine weitere Möglichkeit ist es, mehrere Analyse-Tools einzusetzen. Am Ende könnte man aus den verschiedenen Werten einen Mittelwert bilden. Allerdings basieren die meisten Analytics-Tool auf JavaScript, so dass sie alle die oben genannten Probleme haben.
Es gibt Tracking-Lösung auf PHP-Basis, aber auch dort besteht das Problem, dass Bots mitgezählt werden. Man könnte zwar versuchen diese manuell herauszufiltern, aber das wird nicht sehr zuverlässig sein und man wird tendenziell zu hohe Besucherzahlen erhalten.
Die Wahrheit liegt in der Mitte
In der Realität liegt die Wahrheit wohl irgendwo zwischen Google Analytics, Piwik und anderen Statistik-Tools auf der einen Seite und PHP-Tracking und Logfile-Stats auf der anderen Seite.
Wo genau kann aber niemand sagen und leider scheint es auch keine Anstrengungen zu geben, die Traffic-Erfassung zu modernisieren und neue Ideen und Ansätze zu versuchen, die genauer sind als die heutigen Lösungen.
Ich würde mich freuen, wenn es einen neuen Statistik-Services geben würde, der versucht näher an der Realität zu sein. Mal schauen, ob da in Zukunft was kommt.
Nutzt ihr ein Statistik-Tool für eure Website?
- Ja (89%, 201 Stimmen)
- Nein (12%, 27 Stimmen)
Teilnehmerzahl: 227 (max. 1 Stimmen)
- Danke für 16 tolle Jahre - 13. Juli 2023
- So erstellst du deine erste Newsletter-Mail in 10 Schritten mit CleverReach - 13. Juli 2023
- Die 5 besten Features des Amazon Affiliate WordPress Plugin – AAWP - 12. Juli 2023
Hi Peer,
wie immer ein guter Artikel. Allerdings muss ich doch zwei Dinge loswerden:
1) Es kommt fast so rüber, als ob der Einbau des Tracking-Codes im Footer schlecht wäre. Rein auf das Tracking bezogen gebe ich dir recht. Was aber die Ladezeit und somit die Usability angeht, sollte der Code genau da bleiben: im Footer.
2) Thema Ladezeit: Zusätzlich zu Punkt 1 sei noch erwähnt, dass es natürlich auch länger dauert, zwei Scripte zu laden als nur eines.
Und: Stellt man jetzt “plötzlich” um, sind die Werte vom letzten Jahr nicht mehr als Vergleich heranzuholen.
Interessanter Grundgedanke, wo sicherlich auch etwas dran ist.
Aber ich habe den Artikel nach Überfliegen der Punkte nicht weitergelesen, denn er ist stark überspitzt dargestellt:
– Seite nicht vollständig geladen
Dann waren das auch keine Besucher die zum “50% mehr-Traffic” gehören, sollten also auch überhaupt nicht gemessen werden, also leider Quatsch.
– spezielle Unterseiten
Ist etwas dran, aber jedem Webentwickler sollte klar sein wo der Code eingebunden wurde und wo nicht. Keine globale Aussage möglich, da die Zahlen sicherlich verschwindend gering sind.
– Script- und Ad-Blocker
Korrekt eingebrachter Punkt, hier stimme ich dir zu. (Aber 50%?)
– JavaScript deaktiviert
Wiederholung von Punkt oben, das fällt beides zusammen.
– Google-Plugin
Korrekt. (Auch keine 50%)
Dass nur 2 Punkte wirklich zutreffen bedeutet ja wohl kaum 50% mehr Traffic.
Ganz im Gegenteil, schon mal andersherum gedacht, wieviel Traffic verursacht und gemessen wird, der überhaupt gar kein realer Traffic ist?
Bots, Crawler oder Ping-Dienste verursachen falsch eingestellt eine Menge Traffic der teilweise getrackt wird und sicherlich einen größeren Teil ausmachen als der nicht-getrackte-Traffic.
@ Dominik
Zumindest den Google Analytics Code sollte man im Header einbauen. Dieser ist mittlerweile ein asynchroner Code und bremst den Rest der Website damit nicht mehr.
@ Erik
Ich schreibe ja nicht, dass es pauschal 50% sind, sondern bis zu 50%.
Bzgl. des “Seite nicht vollständig geladen” würde ich das aber anders sehen. Ist die Site schlecht optimiert, hat lange Ladezeiten oder irgendein technisches Problem, kann der Anteil der nicht fertig geladenen Seiten schon etwas höher sein.
Bzgl. den Ad- bzw. Scriptblockern. Hier kenne ich teilweise Zahlen von 30% und mehr. Also bei weitem nicht unbedeutend.
Aber unter dem Strich ist es wirklich nicht zu sagen, ob es nur 10%, 20% oder gar deutlich mehr sind.
Bei WordPress benutze ich Jetpack. Viel zu häufig sind Abweichungen erkennbar im Gegensatz zu Analytics werden viel mehr Keywords gezählt.
Hey,
naja der wirkliche Traffic lässt sich eigentlich recht gut über die LogFiles auswerten und wenn man z. B. Landingpages betreibt, welche bei einem starken Keyword auf Platz 1 sitzen, kann man auch anhand des Suchvolumens schauen 😉
@ Yan
Logfiles sind wirklich eher schlecht auszuwerten, da wie Peer bereits erwähnte zu viele Bots und Crawler die Seite besuchen. Auch wenn du Landingpages betreibst, werden diese von den Bots und Crawlern besucht und somit in deiner Statistik mit auftauchen.
Klar kannst du dann anhand der Suchhäufigkeit der Keywords ungefähr sagen wie viele es sein könnten, es könnten aber auch 90% Bots und Crawler sein und 10% “echte” Besucher.
Das ist leider der kleine aber doch sehr entscheidende Nachteil von Logfile Auswertungen
Hallo,
ich benutzte zwei Statistik Tools auf meiner Seite net2go.eu. Es ist einmal das SemmelstatzReloaded und das andere ist Google Analytics. Beide haben immer unterschiedliche Werte. Am 02.08.2013 SemmelstatzR 264 Besucher gezählt, wobei Google Analytics nur 153 Besucher gezählt hat. Das ist schon ein großer Unterschied.
Wow, ich hätte nicht gedacht, dass die Tools so ungenau sind. Mir persönlich kam es immer so vor, als hätte ich eigentlich weniger Traffic als angezeigt, aufgrund von eigenen Zugriffen und Zugriffen von Googlebots/Spambots.
Trotzdem gut zu wissen, dass man sich nicht auf ein Tool alleine verlassen sollte!
@Peer
Das mit dem asynchronen Laden wusste ich nicht (bin Piwik-Nutzer). Danke für die Richtigstellung 🙂
Ich nutze auf mehreren Seiten Google Analytics und Jetpack gleichzeitig.
Bei Google Analytics wird weniger als die Hälfte angezeigt- teilweise nur 1/3 des Traffics, den mir Jetpack meldet. Irritierend ist das schon.
@Dominik: Auch piwik läd mittlerweile async. Einfach mal in der neuen Version einen code abrufen, dieser kann/sollte dann auch im head platziert werden.
Zudem sind die Google-Server so schnell und nie offline, so dass auch bei einem nicht asynchronen Code kaum Ladezeit anfallen dürfte. Würde da eher Social-Media-Plugins nach unten schieben.
Ich nutze zwei Analyse-Tools:
Google Analysis
Jetpack-Wordpress Statistiken
@Tjark
Würde mich interessieren, wie hoch die Unterschiede bei Dir sind?
50% mehr Besucher halte ich doch für ein wenig übertrieben.
Davon abgesehen sollte man bedenken das Besucherzahlen generell nicht so aussagekräftig sind. Viel wichtiger finde ich (je nach Projekt) Conversions, Verweildauer und Seitenaufrufe. Besucherzahlen sind evtl. interessant um Projekt A mit Projekt B zu vergleichen (bei gleichem Tracking-Tool), mehr aber auch nicht.
Ich nutze fürs Tracking Piwik, das als Script eingebunden ist. Zusätzlich werte ich mit Piwik die Server Logfiles aus. Für den laufenden Monat sieht das bei den Seitenaufrufen bei mir wie folgt aus:
Piwik per Script: ~47.000 Seitenaufrufe
Piwik Logfiles: ~164.000 Seitenaufrufe
Ganz schöner Unterschied! Ich muss dingend nochmals die Zugriffe durch Bots überprüfen. In den Top 5 Regionen aus denen die Besucher kommen tummeln sich Virginia, Zhejiang und Fujian, was auf einer rein deutschsprachigen Seite eher ungewöhnlich sein sollte.