31 SEO Fehler, die man bei der eigenen Firmenwebsite vermeiden sollte – Teil 3

31 SEO Fehler, die man bei der eigenen Firmenwebsite vermeiden sollte - Teil 3Nachdem ich in den ersten beiden Teilen der Artikelserie auf den Inhalt und SEO-Maßnahmen eingegangen bin, geht es im letzten Teil der Artikelserie um die Technik.

Welche technischen Probleme können die Suchmaschinenoptimierung negativ beeinflussen und Google dazu bringen, dass man schlechter gerankt wird?

Als Antwort gibt es auch diesmal wieder 10 SEO-Fehler, die man vermeiden sollte.

Am Ende dieses Artikel gibt es dann noch einen Bonus-Tipp zum Abschluss der Artikelserie.

Die weiteren Teile der Serie:
erster Teil – Inhalt
zweiter Teil – SEO-Maßnahmen

31 SEO Fehler – Teil 3: Die Technik

Natürlich sind die Inhalte einer Seite und die eingesetzten SEO-Maßnahmen die wichtigsten Faktoren für den Erfolg in Google.

Aber auch technische Aspekte spielen eine immer stärkere Rolle und so kann es durchaus sein, dass technische Fehler und Probleme dazu führen, dass man in Google schlechter dasteht, als das eigentlich möglich wäre.

Deshalb möchte ich im Folgenden 10 SEO-Fehler auflisten, die technische Ursachen haben.

Auch diesmal sind die Fehler wieder alphabetisch geordnet.

fehlende XML-Sitemap
Eine Sitemap ist in der Regel ein XML-Dokument, in dem alle Artikel, Seiten etc. einer Website aufgelistet sind.

Dabei kann man dort auch weitere Informationen hinterlegen, wie z.B. die Änderungsfrequenz einer Seite.

Diese Sitemap-Datei wird von Suchmaschinen-Crawlern gelesen und auf diese Weise sorgt man dafür, dass z.B. Google alle Seiten der eigenen Website kennt und diese dann auch besucht.

Gerade bei etwas versteckten oder schlechter verlinkten Unterseiten könnte es sonst passieren, dass der Suchmaschinen Crawler diese übersieht. Dies kann auch bei sehr vielen Unterseiten der Fall sein.

Und da es für die meisten Content Management Systeme Sitemap-Plugins gibt, welche diese Datei automatisch erzeugen, sollte man die XML-Sitemap unbedingt nutzen.

Google Personalisierung aktiv
Hin und wieder kommt es vor, dass ein Leser mir mitteilt, dass er oder sie mit seiner Website auf Position 1 bei Google steht, aber kaum Besucher kommen.

Oft ist das aber nur der Effekt der Google Personalisierung. Denn Google hat standardmäßig die Personalisierung der Suchergebnisse aktiviert. Damit soll jedem Nutzer ein individuell passendes Suchergebnis geliefert werden.

Und das führt eben auch oft dazu, dass die eigene Websites höher angezeigt wird, als das bei den meisten anderen Nutzern der Fall ist.

Deshalb sollte man die personalisierte Suche deaktivieren. Dann erhält man realistischere Suchergebnisse.

Es ist aber natürlich möglich, auch bei der personalisierten Suche weit oben zu stehen.

keine sprechende URL-Struktur
Auch dieser Fehler ist sicher kein alleiniges K.O. Kriterium. Ich bin aber der Meinung, dass sprechende URLs sehr sinnvoll sind und im Gesamtpaket auch die Suchmaschinenoptimierung verbessern.

Mit sprechenden URLs ist gemeint, dass man statt einer URL wie z.B. www.domain.de/p=345234, eine URL wie etwa diese erhält: www.domain.de/moebel/bueromoebel/stuhl.

Das ist zum einen natürlich für die Leser besser, da auch die URL selbst schon recht klar zeigt, wo man sich befindet. Zum anderen analysieren aber natürlich auch Suchmaschinen-Crawler die URL und da schaden die wichtigsten Keywords sicher nicht.

keine Überprüfung
Technische Probleme können immer mal wieder auftreten. Deshalb ist es wichtig, dass man dies regelmäßig prüft und Probleme rechtzeitig erkennt.

Das kann man unter anderem mit den empfehlenswerten Google Webmaster Tools machen. Dabei geht es gar nicht um die Statistik, die dort auch angeboten wird, sondern um all die anderen Tools, die z.B. über Crawling-Fehler berichten usw.

Man braucht sicher keine 24 Stunden Live-Überwachung, aber man sollte auch nicht völlig blind sein, was evtl. technische Probleme angeht.

lange Ladezeit
Mittlerweile hat Google bestätigt, dass die Ladezeit einer Website ein Ranking-Kriterium ist. Natürlich ist es nur eines unter mehr als 200, aber da Google immer viel Wert auf die Nutzererfahrung legt und es zudem interessante Studien über erhöhte Absprungraten durch längere Ladezeiten gibt, sollte man dies nicht ignorieren.

Es gibt z.B. in den oben verlinkten Google Webmaster Tools eine Auswertung der Ladezeiten. Und auch Google Analytics ermöglicht es seit einer Weile, dass man die Ladezeiten misst.

Wie man dies in Google Analytics aktiviert, erfahrt ihr im Artikel “Ladezeiten in Google Analytics“.

Auf Blogprojekt.de wird es Anfang 2012 eine Artikelserie zur Ladezeiten-Optimierung geben.

mehrere Domains
Ich habe immer mal wieder Kunden, die mehrere Domains nutzen wollen, damit man auf eine Website gelangt. Das ist natürlich suboptimal, da Google den Trust und die Power ein und derselben Website auf mehrere Domains aufsplittet.

Deshalb sollte man sich auf 1 Domain festlegen und die anderen ggf. auf diese weiterleiten.

Ebenso sollte man per htaccess-Datei oder CMS-Einstellung dafür sorgen, dass entweder die Domain mit oder ohne “www” angezeigt wird. Für eine der beiden Varianten sollte man sich entscheiden.

nur Flash-Navigation
Google kann zwar mittlerweile auch besser mit Flash umgehen, aber trotzdem sollte man vermeiden, ausschließlich eine Flashnavigation anzubieten.

Schon aus Nutzersicht ist das suboptimal, da diese nicht immer ideal zu bedienen ist. Und leider sind eben auch noch recht viele Nutzer mit älteren Browsern unterwegs oder haben kein Flash-Plugin installiert.

Aber auch aus SEO-Sicht ist es besser, wenn man zusätzlich eine normale Text-Navigation anbietet. Ich würde ganz auf die Flashnavigation verzichten. Mit CSS kann man heute sehr schöne Menüs bauen, die auch Google “gefallen”.

schlechtes Hosting
Beim Thema schlechtes Hosting geht es um mehr als nur eine schlechte Ladezeit.

Wer hier an der falschen Stelle spart, kann seine Bemühungen bei Google gleich vor dem Start der Website zunichte machen, da das Hosting Einfluss auf die Suchmaschinenoptimierung hat.

Schlechte Zugriffszeiten, Nichterreichbarkeit, schlechte Nachbarschaft auf dem selben Server, Ausfälle bei hoher Last und andere Probleme treten bei schlechtem Hosting auf.

Für welche Art von Website welches Hosting sinnvoll ist, habe ich in einem Artikel schon mal erläutert.

Ebenso bin ich darauf eingegangen, wie man den richtigen Hoster auswählt.

SEO nur einmalig gemacht
Suchmaschinenoptimierung ist kein Einzel-Projekt, was nach der Durchführung “fertig” ist.

Stattdessen sollte die Suchmaschinenoptimierung von Anfang an in die Website-Entwicklung eingebunden sein und dann auch während der gesamten Lebenszeit einer Website betrieben werden.

Linkaufbau, Textoptimierung, technische Dinge etc. sind regelmäßige Maßnahmen, die man nicht nur einmal macht und das war es. Deshalb sollte man sich entweder selber die Fähigkeiten aneignen oder einen Spezialisten damit beauftragen.

technische Fehler und Probleme
Auf der eigenen Website sollten natürlich auch keine schwerwiegenden Fehler auftreten. Wenn Teile der Website nicht laden, Bilder fehlen oder die Navigation spinnt, wirkt sich das auf Dauer auch nicht positiv auf das Suchmaschinen-Ranking aus.

Deshalb ist es wichtig, dass man eine sichere und möglichst fehlerfreie technische Basis nutzt. Allerdings habe ich im Artikel “Wie wichtig ist valider HTML-Code?” die Meinung vertreten, dass man sicher nicht perfekt sein muss. Sonst müsste Google 90% aller Websites abstrafen.

Aber man sollte auf jeden Fall aktuelle Updates seiner CMS-Software installieren und auch sonst darauf achten, dass weder der Nutzer, noch der Suchmaschinen-Bot durch technische Probleme behindert werden.

Bonus-Tipp

Um die 31 Tipps voll zu machen gibt es zum Ende dieser kleinen Artikelserie noch einen Bonustipp.

Und dieser lautet “Nicht allein auf SEO konzentrieren!“.

Natürlich ist auch heute noch die Suchmaschinenoptimierung wichtig.

Aber zum Erfolg einer Website gehört mehr als nur SEO.

So sollte man sich vor allem auf den Leser konzentrieren und diesem möglichst genau das bieten was er sucht. Wenn der Leser zufrieden ist, wird er länger bleiben, wiederkommen und evtl. auch was kaufen.

Insofern muss die Suchmaschinenoptimierung Hand in Hand mit anderen Maßnahmen gehen, um insgesamt den bestmöglichen Erfolg für die eigene Website zu erreichen.

Und langfristig gesehen ist es sowieso besser SEO nur als unterstützende Maßnahme zu sehen. Google und andere Suchmaschinen werden immer intelligenter und mehr und mehr den eigentlichen Inhalt und dessen Wert verstehen. Und mit dieser steigenden Intelligenz der Suchmaschinen wird der Wert bestimmter SEO-Maßnahmen langfristig auch abnehmen.

Fazit

Das soll es mit meiner dreiteiligen Artikelserie über SEO-Fehler nun auch gewesen sein.

Ich hoffe ihr konntet zumindest ein paar neue Erkenntnisse sammeln.

Natürlich muss nun niemand denken, dass der ein oder andere Fehler aus dieser Liste sofort zur Abstrafung durch Google führt.

Aber natürlich gibt es zum einen Fehler, die schwerwiegender sind und durchaus auch allein schon für ein schlechteres Ranking sorgen können. Zum anderen ist es oft aber auch die Häufung solcher Fehler, die zu Nachteilen in Google führen.

Also sollte man dafür sorgen, dass es insgesamt möglichst wenig SEO-Fehler gibt.

Peer Wandiger

10 Gedanken zu „31 SEO Fehler, die man bei der eigenen Firmenwebsite vermeiden sollte – Teil 3“

  1. Prima Zusammenfassung. Leider ist dies den Kunden manchmal schwer zu vermitteln, dass auch die technischen Aspekte wichtig sind. Die Technik gehört meines Erachtens auf jeden Fall zu einer ganzheitlichen Suchmaschinenoptimierung.

    Antworten
  2. Hey,

    super Punkte, welche man auf jeden Fall beachten sollte. Aber ich bin trotzdem immer noch der Meinung, dass man sich nicht nur auf sog. “Punkte” beharren soll. Google entwickelt sich TÄGLICH weiter. Will man effektiv optimieren, muss man einfach nur machen – natürlich versteht sich 😉

    LG

    Antworten
  3. Für den ersten Überblick sehr gute Tipps (auch in den anderen Teilen der Serie) aber zwei Sachen möchte ich loswerden:

    1) Eine XML-Sitemap braucht man nicht, wenn man nur eine Hand voll Unterseiten hat und diese alle von der Startseite aus verlinkt sind. Ein Muss ist eine XML-Sitemap also nicht in jedem Fall. Viele kleine Firmenwebsites kommen sehr gut ohne aus.

    2) Das mit der sprechenden URL-Struktur ist bei manchen CMS (ich denke hier besonders an große Redaktionssysteme) kaum umsetzbar [in der Theorie natürlich schon aber eben nicht in der Praxis, weil die meisten Unternehmen SEO nicht so stark priorisieren, dass die SEOs den anderen Abteilungen alles diktieren dürfen]. Wichtiger ist hier eher, dass jede Seite eine eindeutige, nicht zu lange URL ohne Parameter bekommt und dass diese URL sich nicht ändert.

    Antworten
  4. Um ehrlich zu sein finde ich den Bonus-Tip einen der wichtigsten 😉
    Wer sich zu sehr auf SEO konzentriert, vernachlässigt meiner Erfahrung nach oft, dem Besucher das zu bieten, weswegen er gekommen ist!
    Wenn ich durch SEO 1000 neue Besucher bekomme ist das schön, wenn aber niemand mein Produkt kauft, sind diese wertlos!

    Antworten
  5. Vielen Dank für die umfangreiche Artikelreihe. Beschäftige mich schon lange “hobbymäßig” mit dem Thema. Es tut gut sich zwischendurch diese Punkte wieder vor Augen zu führen und über die dementsprechende Umsetzung nachzudenken. Außerdem sind die Artikel eine gute Basis um ein Grundverständnis für die Materie zu bekommen. Kann auch sehr hilfreich sein, wenn man die Webseitenoptimierung in professionelle Hände geben will.

    Antworten
  6. Der Artikel deckt fasst alle wichtigen Punkte ab. Allerdings fehlen Social Shares.
    Likes und Shares senden Vertrauenssignale an Google.
    Und ein weiterer wichtiger Punkt; SEO Schema (kommt aber ein bisschen auf den Inhalt an).

    Antworten

Schreibe einen Kommentar