« Büromaterial, Konkurrenz und kreative Ideen ...
13 Wochen Projekt 2012 - Zwischenstand Woche ... »


Google Webmaster Tools – 3. Status
Peer Wandiger - 15 Kommentare - Google, Hosting, Technik, Web Analytics - Ähnliche Artikel


Werbung
Fastbill
Werbung

Im dritten Teil meiner Artikelserie über die Google Webmaster Tools widmet ich mich dem Bereich “Status”.

Dort finden sich diverse Tools zur Fehler-/Probleme-Analyse.

Das ist recht nützlich, da es nicht immer fehlende Suchmaschinenoptimierung und ähnliches ist, was ein besseres Ranking verhindert.

Teile der Artikel-Serie:
1. Einführung
2. Konfiguration
3. Status
4. Zugriffe
5. Optimierung
6. Google Labs
7. Spamreport, Penalty, Analytics und mehr
8. Google Webmaster Tools Daten nutzen
9. News, Zusammenfassung & Umfrage

Der Status-Bereich

Google Webmaster Tools - 3. StatusDer Status-Bereich der Google Webmaster-Tools ist das Analyse-Zentrum für die eigene Website.

Dort bietet Google nicht nur diverse Statistiken und Auswertungen über technische Probleme und die Erreichbarkeit an, sondern ermöglicht auch einen Blick hinter die Kulissen.

Man kann sich anschauen, wie der Googlebot, der die Inhalte einer Website analysiert, die eigene Website sieht. Das hilft dabei Probleme zu erkennen.

Zudem kann man prüfen, ob der Google Bot überhaupt Zugriff auf die eigenen Seiten erhält.

Als weiteres nützliches Feature erweist sich die Malware-Seite. Hier bekommt man Hinweise, falls Google etwas in dieser Richtung auf den eigenen Seiten findet.

Funktionen

Gehen wir nun mal genauer auf die einzelnen Funktionen des Status-Bereiches ein.

Crawling-Fehler
Der erste Menüpunkt lautet “Crawling-Fehler”. Hier findet man Fehlermeldung, die in den letzten 90 Tagen aufgetreten sind.

Zum einen sind das “Website-Fehler”, die den Google Bot davon abgehalten haben überhaupt auf die eigene Website zuzugreifen.

Google Webmaster Tools - 3. Status

Diese Fehler sind in 3 Kategorien aufgeteilt:

  • DNS
    Hier wird angegeben, wie oft der Googlebot nicht auf die eigene Website zugreifen konnte, weil der DNS-Server nicht erreichbar war oder es Fehler bei der DNS-Umleitung gab. Sollte dies häufiger auftreten, muss man sich an seinen Hoster wenden.
  • Serververbindung
    Ist der eigene Webspace/Server überlastet und wird die zulässige Zeit für den Seitenaufruf durch den Googlebot überschritten, wird der Fehler hier vermerkt. Auch wenn der Server gänzlich nicht erreichbar ist, taucht das hier in der Statistik auf. Der Fehler kann an mehreren Stellen zu finden sein. Das eigene CMS kann zu langsam sein oder es kann auch ein Fehler oder eine Überlastungen des Servers vorliegen.
  • Abfruf von robots.txt
    Falls der Googlebot nicht in der Lage ist die robots.txt Datei zu lesen, bricht er das Crawling ab, damit nicht ungewollt eigentlich ausgeschlossene Seiten gecrawlt werden. Kommt dieser Fehler vor, sollte man die robots.txt Datei überprüfen und ggf. neu erstellen.

Die zweite Auswertung nennt sich “URL-Fehler”. Diese Auswertung ist detaillierter, da hier angezeigt wird, welche einzelnen URLs der Googlebot nicht finden konnte bzw. bei welchen URLs es Fehlermeldungen gab.

Google Webmaster Tools - 3. StatusDarunter finden sich die URL-Fehler.

Hier gibt es 4 Kategorien:

  • Serverfehler
    Konnte auf eine URL gar nicht zugegriffen werden, weil z.B. der Server nicht geantwortet hat oder der Zugriff blockiert wurde, wird die entsprechende URL hier aufgelistet.

    Klickt man auf die URL bekommt man weitere Details zum Fehler angezeigt. Das Datum des Fehlers, ob die URL in der Sitemap steht und wo diese URL ggf. verlinkt ist. Gerade letzteres ist sehr interessant.

    Ist die Verlinkung auf der eigenen Seite zu finden, dann sollte man diese entfernen, damit der Googlebot nicht mehr versucht, die URL zu crawlen. Ist die URL auf einer externen Website zu finden, müsste man versuchen, sich mit dessen Webmaster in Verbindung zu setzen, um die URL zu löschen.

    Hat man das Problem behoben, kann man die URL “Als korrigiert markieren” und damit verschwindet diese aus der Liste. Tritt der Fehler beim nächsten mal allerdings wieder auf, erscheint die URL auch hier wieder in der Liste.

  • Zugriff verweigert
    Falls eine URL eine Anmeldung erfordert oder der Server den Zugriff auf eine URL komplett verweigert, wird die entsprechende URL hier aufgelistet. Das kann unter anderem an der robots.txt liegen.
  • Nicht gefunden
    In diesem Punkt finden sich üblicherweise die meisten Einträge. Löscht man eine Seite oder einen Artikel oder wird intern oder extern eine nicht existierende URL verlinkt, so kann diese der Googlebot natürlich nicht finden.

    Hier sollte man sich die Zeit nehmen und die URLs durchgehen. Dabei werden die URLs nach Priorität aufgelistet, also die am häufigsten nicht gefundenen ganz oben. Klickt man eine URL an, dann sieht man auch hier Details.

    Wichtig ist, dass man die nicht existierende URL aus der Sitemap entfernt und ggf. interne und externe Links darauf löscht/ändert.

  • Nicht aufgerufen
    Sind URLs durch JavaScript, Cookies, Sitzungs-IDs etc. für den Googlebot nicht verfolgbar, so tauchen diese hier auf. Auch Weiterleitungen, denen der Bot nicht folgen kann, werden hier aufgelistet.

Nach meiner Erfahrung finden sich vor allem bei “Nicht gefunden” viele Einträge. Hier macht es Sinn zumindest auf der eigenen Website die fehlerhaften Links zu entfernen, da ja nicht nur der Googlebot diese findet, sondern auch die Leser auf solche nicht funktionierenden Links treffen können.

Werbung

Crawling-Statistiken
Der nächste Punkt nennt sich “Crawling Statistiken”. Dort finden sich insgesamt 3 Graphen, die über die Googlebot-Aktivitäten der letzten 90 Tage informieren.

Google Webmaster Tools - 3. Status

Der Screenshot zeigt die “Pro Tag gecrawlten Seiten” an. Dass es dort Schwankungen gibt, ist ganz normal. Es sollte nur nicht ein deutlicher Einbruch zu sehen sein.

Es gibt zudem die Graphen “Pro Tag heruntergeladene Kilobyte” und “Dauer des Herunterladens einer Seite”. Letztere sollte nicht ansteigen, da dies ein Hinweis darauf sein kann, dass der Server langsamer wird.

Sehr viel kann man aus diesen Daten nicht ablesen. Es zeigt allerdings 2 wichtige Dinge:

  1. Ob der Googlebot regelmäßig vorbei schaut.
  2. Ob es Probleme gibt, durch die der Googlebot auf einmal nicht mehr oder deutlich seltener kommt.

Blockierte URLs
Um die robots.txt Datei geht in diesem Menüpunkt.

Hier kann man sehen, wie viele URLs durch diese Datei blockiert werden und man kann einzelne URLs testen, ob diese durch den normalen und andere Googlebots (z.B. mobile oder Adsbot) aufrufbar sind oder von der robots.txt blockiert werden.

Google Webmaster Tools - 3. Status

Diese Funktion soll wohl demnächst deaktiviert werden, was etwas schade ist. Aber es wurde eben auch kaum genutzt.

Abruf wie durch Google
Wenn man wissen möchte, wie der Googlebot einzelne Seiten der eigenen Website sieht, dann nutzt man dieses Tool.

Man gibt einfach die gewünschte URL der eigenen Website ein und nach wenigen Minuten wird einem diese Seite so dargestellt, wie sie der Bot sieht.

Google Webmaster Tools - 3. Status

Zudem kann man unterschiedliche Bots von Google testen und man bekommt angezeigt, ob der Aufruf generell erfolgreich war.

Die Ansicht des Bots ist dann natürlich reiner HTML-Code. Trotzdem ist es mal interessant und so wurden schon grundsätzliche Fehler gefunden.

Zudem kann man z.B. Hacker-Angriffe so besser analysieren, da diese vor normalen Nutzern teilweise versteckt werden.

Malware
Der letzte Unterpunkt “Malware” ist ebenfalls recht interessant.

Findet Google Schadsoftware, Spam, gekaufte/verkaufte Links oder auch Urheberrechtsverletzungen auf der eigenen Website, dann wird dies hier vermerkt.

Ich kann euch “leider” keinen Screenshot zeigen oder genauer darauf eingehen, wie diese Infos angezeigt werden, da ich bisher keine solche Meldung erhalten habe.

Sollte hier allerdings etwas auftauchen, dass wird dies natürlich auch in den GWT-Nachrichten angezeigt und (wenn man es eingerichtet hat) auch per Mail versendet, so dass man dies zeitnah erfährt.

Die Status-Tools nutzen

Die vorgestellten Tools und Informationen muss man sicher nicht täglich überprüfen.

Allerdings sollte man trotzdem regelmäßig mal vorbei schauen und sich die Zeit nehmen, um z.B. die “Nicht gefundenen” URLs anzuschauen und entsprechende Links von den eigenen Seiten zu entfernen.

Wichtig ist, dass man die Nachrichten-Weiterleitung auf die eigene eMail-Adresse aktiviert hat, um bei dringenden Problemen sofort informiert zu werden.

Fazit

Die Informationen im Status-Bereich sind sehr interessant und können teilweise überlebensnotwendig für die eigene Website sein.

Man sollte sich damit auf jeden Fall mal in Ruhe vertraut machen und sich die einzelnen Funktionen genauer anschauen.

Wenn es mal ein Problem gibt, sollte man sich auskennen und nicht dann erst damit anfangen die Google-Hilfe zu lesen. :-)


Hier findest Du weitere Informationen zu diesem Thema:

Die besten Artikel zum Thema 'Google'
Werbung
Werbung

Der Artikel hat Dir gefallen?
Dann abonniere den Feed! Die Artikel gibt es auch per Mail



Kommentare
15 Kommentare und Trackbacks zu 'Google Webmaster Tools – 3. Status'

Kommentare zu 'Google Webmaster Tools – 3. Status' mit RSS

  1. 1 Starsoul kommentierte am 19.07.2012 um 11:14 Uhr

    Auch wenn man schon jahrelang “nebenher” mit den WMT arbeitet ist so ein Artikel doch immer wieder interessant. Vielen Dank dafür!

  2. 2 Michael kommentierte am 19.07.2012 um 16:10 Uhr

    Kann ich nur bestätigen. Die meisten Fehlercodes gibt es von Seite die nicht mehr vorhanden sind, aber noch in irgendeiner Sitemap rumduseln.

    Wenn man eine Seite manuell löscht, sollte man diese im übrigen per 301 auf eine andere Seite umleiten. Damit gibt es keine Fehler beim Google Crawl und außerdem kann man den Traffic dieser Seite weiter nutzen. Ich nutze dafür das Plugin “Redirection” von John Godley. Das ist wirklich sehr einfach zu bedienen.

  3. 3 Tommy kommentierte am 19.07.2012 um 20:23 Uhr

    Ich habe Redirection auch im Einsatz, kann ich bestätigen. Ich nutze die Webmastertools auch, finde aber dass man hier von google ein paar mehr Optimierungstipps für die Webseite erhalten könnte als das aktuell der Fall ist.

  4. 4 Matthias kommentierte am 19.07.2012 um 21:40 Uhr

    Hallo Peer, du hast vergessen zu erwähnen, dass man beim Abruf wie durch Google die analysierten Seiten auch bei Google einreichen kann. Zumindest bei neuen Seiten kann man die Indizierung damit etwas beschleunigen.

  5. 5 Marcel kommentierte am 20.07.2012 um 03:22 Uhr

    Hallo Peer, hast du eine Ahnung, ob Google das als “schlecht” bewertet, wenn URLs nicht zu finden sind? Bei mir liegt das z.B. an Coupons, die einfach mal ungültig werden :/

  6. 6 wowasweb kommentierte am 20.07.2012 um 08:58 Uhr

    Sehr interessanter Artikel! Dabei spielt es keine Rolle, ob man schon lange mit WMT arbeitet oder aber „Neueinsteiger“ ist. Ein hilfreicher Artikel, der einem bei den Webmastertools von Google absolut behilflich ist.

  7. 7 Peer Wandiger kommentierte am 20.07.2012 um 09:28 Uhr

    @ Marcel
    Dazu habe ich keine definitive Aussage oder Information.

    Aber wie meist bei Google ist es sicher eine Frage des Maßes. Werden es, anteilig gesehen, zu viele kaputte URLs, könnte es schon problematisch sein.

    Allerdings nur bei internen Links, denn sonst könnte ja jemand massig falsche Links von anderen Websites setzen.

  8. 8 Martin kommentierte am 21.07.2012 um 17:11 Uhr

    Wieder ein wirklich informativer Artikel
    Grundsätz möchte ich anmerken, dass ich von deinen Artikeln schon sehr viel gelernt habe und regelmäßig neue Informationen für meine Projekte erhalte..
    Ich staune immer wieder, wieviele Themen du schon behandelt hast und immer wieder wertvolle Inhalte präsentieren kannst.

    Martin

  9. 9 ElMeik kommentierte am 22.07.2012 um 09:44 Uhr

    Was @Marcel fragt würde mich auch mal interessieren. Ich habe einen Haufen nich gefundene URLs, da ich noch recht neu bin, was das Bloggen angeht. Da mussten leider immer wieder Veränderungen umgesetzt werden die dazu führten, dass alte Seiten nicht mehr gefunden werden. Ich habe die bei Google jetzt einfach mal als “behoben” markiert und schaue ob und welche wieder auftauchen. Was mich noch interessiert ist – wann kommt der 4.Teil der Serie raus :-) ?

  10. 10 Tristan kommentierte am 29.07.2012 um 14:09 Uhr

    Gut, dass du auf die einzelnen Menüpunkte so ausführlich eingehst, zuvor war mir nicht wirklich klar, was für einen Zweck “Abruf wie durch Google Bot” haben soll.

  11. 11 Michael kommentierte am 14.10.2012 um 10:15 Uhr

    Hallo Peer,

    Ich habe mit in meinen Webmastertools mal die Crawling Fehler angeschaut, da Google meine neusten Artikel seit Ende September immer erst nach 3-4 Tagen indiziert.

    Dort stehen Crwaling Fehler drinnen, die wie folgt aussehen:

    Artikel/feed/

    genauso habe ich seit September einen Einbruch der Besucherzahlen von run 75% und ich weiß nicht woran das liegt. Alles was ich im September gemacht habe ist eine Ladezeitenoptimierung.

    Grüße Micha

  12. 12 Sebastian kommentierte am 14.10.2012 um 13:04 Uhr

    Ich beschäftige mich noch nicht sehr lange mit dem Webmastertool, aber ich bin immer wieder begeistert, was dieses Tool alles kann. Danke daher für die ganzen Informationen.

  13. 13 Peer Wandiger kommentierte am 14.10.2012 um 16:51 Uhr

    @ Michael
    Leider kann ich dir da nicht wirklich sagen, wo genau das Problem liegt. Mit “Artikel/feed/” kann ich nicht wirklich was anfangen.

    In 99% der Fälle kann man aber davon ausgehen, dass eigene Änderungen für gleichzeitig auftretende Probleme verantwortlich sind. Also am besten mal genau nachvollziehen, was du geändert hast und prüfen, ob diese Änderungen für das Problem verantwortlich sind.

    Zudem solltest du mal prüfen, ob du noch in der Google Suche gefunden wirst.

    Evtl. hat es ja nichts mit der Technik zu tun, sondern du hast dir einen Google-Penalty eingefangen.

  14. 14 Sascha kommentierte am 25.11.2012 um 00:21 Uhr

    Hallo Peer,
    danke für die deine umfangreiche Artikelreihe. So intensiv hatte ich die Webmaster Tools nie betrachtet und habe einige interessante Punkte gefunden die mir bisher fremd waren.

Trackbacks

  1. Google Webmaster Tools – 7. Spamreport, Penalty, Analytics und mehr › Internet-Business.biz



wpSEO, das Plugin für WordPress SEO Werbung





Twitter Selbständig
5.064
Follower
Facebook Selbständig
944
Fans
Google+ Peer Wandiger
5.919
Kreise
WER SCHREIBT HIER?
Peer Wandiger Mein Name ist Peer Wandiger. Ich bin selbstständiger Webentwickler und Blogger. Hier im Blog findest du mehr als 3.000 Fachartikel, die besten Artikel aus über 7 Jahren und alles über den Blog und mich.
Alle neuen Artikel als RSS-Feed (mehr als 5.000 Leser) oder als Newsletter.
Impressum & Datenschutz
AKTUELLE ARTIKEL
BELIEBTESTE ARTIKEL
WERBUNG
Backlinkseller - SEO
Affiliate BoosterWebsite-Tooltester
AKTUELLE ANGEBOTE
AKTUELLE UMFRAGE

Optimiert Ihr die Ladezeit eurer Website(s)?

Ergebnis anschauen

Loading ... Loading ...
TOP 5 EINNAHMEQUELLEN*
  1. Backlinkseller.de
    Geld verdienen mit Backlinks.
  2. Adiro.de
    Geld verdienen mit Text-Anzeigen.
  3. Finanzen.de
    Versicherung- und Kredit-Partnerprogramm.
  4. Everlinks.net
    Linkverkauf und bezahlte Artikel.
  5. Superclix.de
    Affiliate-Netzwerk mit Sofortfreischaltung.
TIPPS
ARTIKELSERIEN
BLOG NETWORK
WERBUNG
LINK-EMPFEHLUNGEN
AKTUELLE KOMMENTARE
Andreas
In dem Buch möchte der Autor Joe Casabona zeigen, wie man WordPress Themes...
1. September 2014

Adrian
Ich finde es sehr wichtig, dass das Layout der Webseite an Mobile-Geräte...
1. September 2014

mkuh
Hallo die frage Für wie wichtig haltet ihr ein auf mobile Endgeräte angepasstes...
1. September 2014

Tamara
Bei der nächsten NSC 2015 bin ich auch dabei!
1. September 2014

Christian Kaiser
ich halte es für sehr wichtig, da immer mehr durch mobile Geräte...
1. September 2014

SOCIAL NETWORKING
*

View Peer Wandiger's profile on LinkedIn

Blogverzeichnis - Blog Verzeichnis bloggerei.de

INFORMATIONEN