Google Webmaster Tools – 3. Status

DirectAds
Werbung

Im dritten Teil meiner Artikelserie über die Google Webmaster Tools widmet ich mich dem Bereich “Status”.

Dort finden sich diverse Tools zur Fehler-/Probleme-Analyse.

Das ist recht nützlich, da es nicht immer fehlende Suchmaschinenoptimierung und ähnliches ist, was ein besseres Ranking verhindert.

Teile der Artikel-Serie:
1. Einführung
2. Konfiguration
3. Status
4. Zugriffe
5. Optimierung
6. Google Labs
7. Spamreport, Penalty, Analytics und mehr
8. Google Webmaster Tools Daten nutzen
9. News, Zusammenfassung & Umfrage

Der Status-Bereich

Google Webmaster Tools - 3. StatusDer Status-Bereich der Google Webmaster-Tools ist das Analyse-Zentrum für die eigene Website.

Dort bietet Google nicht nur diverse Statistiken und Auswertungen über technische Probleme und die Erreichbarkeit an, sondern ermöglicht auch einen Blick hinter die Kulissen.

Man kann sich anschauen, wie der Googlebot, der die Inhalte einer Website analysiert, die eigene Website sieht. Das hilft dabei Probleme zu erkennen.

Zudem kann man prüfen, ob der Google Bot überhaupt Zugriff auf die eigenen Seiten erhält.

Als weiteres nützliches Feature erweist sich die Malware-Seite. Hier bekommt man Hinweise, falls Google etwas in dieser Richtung auf den eigenen Seiten findet.

Funktionen

Gehen wir nun mal genauer auf die einzelnen Funktionen des Status-Bereiches ein.

Crawling-Fehler
Der erste Menüpunkt lautet “Crawling-Fehler”. Hier findet man Fehlermeldung, die in den letzten 90 Tagen aufgetreten sind.

Zum einen sind das “Website-Fehler”, die den Google Bot davon abgehalten haben überhaupt auf die eigene Website zuzugreifen.

Google Webmaster Tools - 3. Status

Diese Fehler sind in 3 Kategorien aufgeteilt:

  • DNS
    Hier wird angegeben, wie oft der Googlebot nicht auf die eigene Website zugreifen konnte, weil der DNS-Server nicht erreichbar war oder es Fehler bei der DNS-Umleitung gab. Sollte dies häufiger auftreten, muss man sich an seinen Hoster wenden.
  • Serververbindung
    Ist der eigene Webspace/Server überlastet und wird die zulässige Zeit für den Seitenaufruf durch den Googlebot überschritten, wird der Fehler hier vermerkt. Auch wenn der Server gänzlich nicht erreichbar ist, taucht das hier in der Statistik auf. Der Fehler kann an mehreren Stellen zu finden sein. Das eigene CMS kann zu langsam sein oder es kann auch ein Fehler oder eine Überlastungen des Servers vorliegen.
  • Abfruf von robots.txt
    Falls der Googlebot nicht in der Lage ist die robots.txt Datei zu lesen, bricht er das Crawling ab, damit nicht ungewollt eigentlich ausgeschlossene Seiten gecrawlt werden. Kommt dieser Fehler vor, sollte man die robots.txt Datei überprüfen und ggf. neu erstellen.

Die zweite Auswertung nennt sich “URL-Fehler”. Diese Auswertung ist detaillierter, da hier angezeigt wird, welche einzelnen URLs der Googlebot nicht finden konnte bzw. bei welchen URLs es Fehlermeldungen gab.

Google Webmaster Tools - 3. StatusDarunter finden sich die URL-Fehler.

Hier gibt es 4 Kategorien:

  • Serverfehler
    Konnte auf eine URL gar nicht zugegriffen werden, weil z.B. der Server nicht geantwortet hat oder der Zugriff blockiert wurde, wird die entsprechende URL hier aufgelistet.

    Klickt man auf die URL bekommt man weitere Details zum Fehler angezeigt. Das Datum des Fehlers, ob die URL in der Sitemap steht und wo diese URL ggf. verlinkt ist. Gerade letzteres ist sehr interessant.

    Ist die Verlinkung auf der eigenen Seite zu finden, dann sollte man diese entfernen, damit der Googlebot nicht mehr versucht, die URL zu crawlen. Ist die URL auf einer externen Website zu finden, müsste man versuchen, sich mit dessen Webmaster in Verbindung zu setzen, um die URL zu löschen.

    Hat man das Problem behoben, kann man die URL “Als korrigiert markieren” und damit verschwindet diese aus der Liste. Tritt der Fehler beim nächsten mal allerdings wieder auf, erscheint die URL auch hier wieder in der Liste.

  • Zugriff verweigert
    Falls eine URL eine Anmeldung erfordert oder der Server den Zugriff auf eine URL komplett verweigert, wird die entsprechende URL hier aufgelistet. Das kann unter anderem an der robots.txt liegen.
  • Nicht gefunden
    In diesem Punkt finden sich üblicherweise die meisten Einträge. Löscht man eine Seite oder einen Artikel oder wird intern oder extern eine nicht existierende URL verlinkt, so kann diese der Googlebot natürlich nicht finden.

    Hier sollte man sich die Zeit nehmen und die URLs durchgehen. Dabei werden die URLs nach Priorität aufgelistet, also die am häufigsten nicht gefundenen ganz oben. Klickt man eine URL an, dann sieht man auch hier Details.

    Wichtig ist, dass man die nicht existierende URL aus der Sitemap entfernt und ggf. interne und externe Links darauf löscht/ändert.

  • Nicht aufgerufen
    Sind URLs durch JavaScript, Cookies, Sitzungs-IDs etc. für den Googlebot nicht verfolgbar, so tauchen diese hier auf. Auch Weiterleitungen, denen der Bot nicht folgen kann, werden hier aufgelistet.

Nach meiner Erfahrung finden sich vor allem bei “Nicht gefunden” viele Einträge. Hier macht es Sinn zumindest auf der eigenen Website die fehlerhaften Links zu entfernen, da ja nicht nur der Googlebot diese findet, sondern auch die Leser auf solche nicht funktionierenden Links treffen können.

Werbung

Crawling-Statistiken
Der nächste Punkt nennt sich “Crawling Statistiken”. Dort finden sich insgesamt 3 Graphen, die über die Googlebot-Aktivitäten der letzten 90 Tage informieren.

Google Webmaster Tools - 3. Status

Der Screenshot zeigt die “Pro Tag gecrawlten Seiten” an. Dass es dort Schwankungen gibt, ist ganz normal. Es sollte nur nicht ein deutlicher Einbruch zu sehen sein.

Es gibt zudem die Graphen “Pro Tag heruntergeladene Kilobyte” und “Dauer des Herunterladens einer Seite”. Letztere sollte nicht ansteigen, da dies ein Hinweis darauf sein kann, dass der Server langsamer wird.

Sehr viel kann man aus diesen Daten nicht ablesen. Es zeigt allerdings 2 wichtige Dinge:

  1. Ob der Googlebot regelmäßig vorbei schaut.
  2. Ob es Probleme gibt, durch die der Googlebot auf einmal nicht mehr oder deutlich seltener kommt.

Blockierte URLs
Um die robots.txt Datei geht in diesem Menüpunkt.

Hier kann man sehen, wie viele URLs durch diese Datei blockiert werden und man kann einzelne URLs testen, ob diese durch den normalen und andere Googlebots (z.B. mobile oder Adsbot) aufrufbar sind oder von der robots.txt blockiert werden.

Google Webmaster Tools - 3. Status

Diese Funktion soll wohl demnächst deaktiviert werden, was etwas schade ist. Aber es wurde eben auch kaum genutzt.

Abruf wie durch Google
Wenn man wissen möchte, wie der Googlebot einzelne Seiten der eigenen Website sieht, dann nutzt man dieses Tool.

Man gibt einfach die gewünschte URL der eigenen Website ein und nach wenigen Minuten wird einem diese Seite so dargestellt, wie sie der Bot sieht.

Google Webmaster Tools - 3. Status

Zudem kann man unterschiedliche Bots von Google testen und man bekommt angezeigt, ob der Aufruf generell erfolgreich war.

Die Ansicht des Bots ist dann natürlich reiner HTML-Code. Trotzdem ist es mal interessant und so wurden schon grundsätzliche Fehler gefunden.

Zudem kann man z.B. Hacker-Angriffe so besser analysieren, da diese vor normalen Nutzern teilweise versteckt werden.

Malware
Der letzte Unterpunkt “Malware” ist ebenfalls recht interessant.

Findet Google Schadsoftware, Spam, gekaufte/verkaufte Links oder auch Urheberrechtsverletzungen auf der eigenen Website, dann wird dies hier vermerkt.

Ich kann euch “leider” keinen Screenshot zeigen oder genauer darauf eingehen, wie diese Infos angezeigt werden, da ich bisher keine solche Meldung erhalten habe.

Sollte hier allerdings etwas auftauchen, dass wird dies natürlich auch in den GWT-Nachrichten angezeigt und (wenn man es eingerichtet hat) auch per Mail versendet, so dass man dies zeitnah erfährt.

Die Status-Tools nutzen

Die vorgestellten Tools und Informationen muss man sicher nicht täglich überprüfen.

Allerdings sollte man trotzdem regelmäßig mal vorbei schauen und sich die Zeit nehmen, um z.B. die “Nicht gefundenen” URLs anzuschauen und entsprechende Links von den eigenen Seiten zu entfernen.

Wichtig ist, dass man die Nachrichten-Weiterleitung auf die eigene eMail-Adresse aktiviert hat, um bei dringenden Problemen sofort informiert zu werden.

Fazit

Die Informationen im Status-Bereich sind sehr interessant und können teilweise überlebensnotwendig für die eigene Website sein.

Man sollte sich damit auf jeden Fall mal in Ruhe vertraut machen und sich die einzelnen Funktionen genauer anschauen.

Wenn es mal ein Problem gibt, sollte man sich auskennen und nicht dann erst damit anfangen die Google-Hilfe zu lesen. :-)


Werbung
Werbung

Kommentare

  1. meint

    Auch wenn man schon jahrelang “nebenher” mit den WMT arbeitet ist so ein Artikel doch immer wieder interessant. Vielen Dank dafür!

  2. meint

    Kann ich nur bestätigen. Die meisten Fehlercodes gibt es von Seite die nicht mehr vorhanden sind, aber noch in irgendeiner Sitemap rumduseln.

    Wenn man eine Seite manuell löscht, sollte man diese im übrigen per 301 auf eine andere Seite umleiten. Damit gibt es keine Fehler beim Google Crawl und außerdem kann man den Traffic dieser Seite weiter nutzen. Ich nutze dafür das Plugin “Redirection” von John Godley. Das ist wirklich sehr einfach zu bedienen.

  3. meint

    Ich habe Redirection auch im Einsatz, kann ich bestätigen. Ich nutze die Webmastertools auch, finde aber dass man hier von google ein paar mehr Optimierungstipps für die Webseite erhalten könnte als das aktuell der Fall ist.

  4. meint

    Hallo Peer, du hast vergessen zu erwähnen, dass man beim Abruf wie durch Google die analysierten Seiten auch bei Google einreichen kann. Zumindest bei neuen Seiten kann man die Indizierung damit etwas beschleunigen.

  5. meint

    Hallo Peer, hast du eine Ahnung, ob Google das als “schlecht” bewertet, wenn URLs nicht zu finden sind? Bei mir liegt das z.B. an Coupons, die einfach mal ungültig werden :/

  6. meint

    Sehr interessanter Artikel! Dabei spielt es keine Rolle, ob man schon lange mit WMT arbeitet oder aber „Neueinsteiger“ ist. Ein hilfreicher Artikel, der einem bei den Webmastertools von Google absolut behilflich ist.

  7. meint

    @ Marcel
    Dazu habe ich keine definitive Aussage oder Information.

    Aber wie meist bei Google ist es sicher eine Frage des Maßes. Werden es, anteilig gesehen, zu viele kaputte URLs, könnte es schon problematisch sein.

    Allerdings nur bei internen Links, denn sonst könnte ja jemand massig falsche Links von anderen Websites setzen.

  8. meint

    Wieder ein wirklich informativer Artikel
    Grundsätz möchte ich anmerken, dass ich von deinen Artikeln schon sehr viel gelernt habe und regelmäßig neue Informationen für meine Projekte erhalte..
    Ich staune immer wieder, wieviele Themen du schon behandelt hast und immer wieder wertvolle Inhalte präsentieren kannst.

    Martin

  9. meint

    Was @Marcel fragt würde mich auch mal interessieren. Ich habe einen Haufen nich gefundene URLs, da ich noch recht neu bin, was das Bloggen angeht. Da mussten leider immer wieder Veränderungen umgesetzt werden die dazu führten, dass alte Seiten nicht mehr gefunden werden. Ich habe die bei Google jetzt einfach mal als “behoben” markiert und schaue ob und welche wieder auftauchen. Was mich noch interessiert ist – wann kommt der 4.Teil der Serie raus :-) ?

  10. meint

    Gut, dass du auf die einzelnen Menüpunkte so ausführlich eingehst, zuvor war mir nicht wirklich klar, was für einen Zweck “Abruf wie durch Google Bot” haben soll.

  11. meint

    Hallo Peer,

    Ich habe mit in meinen Webmastertools mal die Crawling Fehler angeschaut, da Google meine neusten Artikel seit Ende September immer erst nach 3-4 Tagen indiziert.

    Dort stehen Crwaling Fehler drinnen, die wie folgt aussehen:

    Artikel/feed/

    genauso habe ich seit September einen Einbruch der Besucherzahlen von run 75% und ich weiß nicht woran das liegt. Alles was ich im September gemacht habe ist eine Ladezeitenoptimierung.

    Grüße Micha

  12. meint

    Ich beschäftige mich noch nicht sehr lange mit dem Webmastertool, aber ich bin immer wieder begeistert, was dieses Tool alles kann. Danke daher für die ganzen Informationen.

  13. meint

    @ Michael
    Leider kann ich dir da nicht wirklich sagen, wo genau das Problem liegt. Mit “Artikel/feed/” kann ich nicht wirklich was anfangen.

    In 99% der Fälle kann man aber davon ausgehen, dass eigene Änderungen für gleichzeitig auftretende Probleme verantwortlich sind. Also am besten mal genau nachvollziehen, was du geändert hast und prüfen, ob diese Änderungen für das Problem verantwortlich sind.

    Zudem solltest du mal prüfen, ob du noch in der Google Suche gefunden wirst.

    Evtl. hat es ja nichts mit der Technik zu tun, sondern du hast dir einen Google-Penalty eingefangen.

  14. meint

    Hallo Peer,
    danke für die deine umfangreiche Artikelreihe. So intensiv hatte ich die Webmaster Tools nie betrachtet und habe einige interessante Punkte gefunden die mir bisher fremd waren.

Trackbacks/ Pingbacks

Werbung