Nachdem ich im ersten Teil dieser kleinen Artikel-Serie auf die Inhalte eingegangen bin, geht es im zweiten Teil nun um konkrete SEO-Maßnahmen.
Ein zu viel, zu wenig oder gar nicht kann hier ein durchaus ein entscheidender Fehler sein.
Viel Spaß mit dem Artikel.
Die weiteren Teile der Serie:
erster Teil – Inhalt
dritter Teil – Die Technik
31 SEO Fehler – Teil 2: Die Suchmaschinenoptimierung
Suchmaschinenoptimierung gehört heute einfach mit dazu. Natürlich gibt es auch innerhalb des SEO-Bereichs viele unterschiedliche Ausrichtungen (Stichwort Blackhat), aber ohne eine grundsätzliche und von Google empfohlene Suchmaschinenoptimierung kommt heute wohl kaum noch eine Business-Website aus.
Doch auch hier lauern Fehler, die das Ranking einer Website negativ beeinflussen können.
Welche das sind, erfahrt ihr im Folgenden.
alte Tricks
Das Internet ist im Vergleich zu anderen Entwicklung zwar noch relativ jung, aber in dieser Zeit sind mittlerweile Milliarden Artikel online veröffentlicht wurden.
Und Google schafft es nur bedingt, da auch eine zeitliche Ordnung rein zu bringen. Denn nicht alles was alt ist, muss schlecht sein. Und genau liegt ist das Problem.
Gerade im SEO-Bereich sind alte Tipps durchaus gefährlich. Als bitte kein Cloaking, keine Doorway-Seiten, keine Farb-/Texttricks usw. nutzen.
Die meisten SEO-Tricks nutzen eine Lücke in Google und Co. aus, die nur eine gewisse Zeit besteht. Dann werden diese Tricks von den Suchmaschinen erkannt und im schlimmsten Fall wird man abgestraft und verliert seine guten Rankings.
Deshalb sollte man auf aktuelle Tipps setzen und vor allem (meiner Meinung nach) auf langfristige SEO-Maßnahmen und nicht auf kurzfristige Tricks.
Duplicate Content
Über Duplicate Content wird immer mal wieder diskutiert. Das Problem an sich besteht darin, dass durch moderne Content Management Systeme ein Artikel auf einer Website meist nicht nur über eine einzige URL aufrufbar ist.
Das kann dazu führen, dass Google den selber Artikel unter verschiedenen URLs findet. Solange das auf einer Website ist, stellt das meist kein Problem dar. Es gibt heute viele Plugins, die den sogenannten “canonical-Tag” setzen. Dieser gibt an, was die Haupt-URL eines Artikels ist. Diese Infos sehen natürlich nur die Suchmaschinen und wissen, welche URL in den Index rein soll.
Leider gibt es aber auch viele Leute da draußen, die sich selber keine Arbeit machen wollen und einfach komplette Artikel oder gleich alle Artikel einer Site kopieren und auf ihre Seiten stellen.
Doch aus das ist heute nicht mehr ganz so das Problem. Google ist da mittlerweile recht gut im Erkennen, was zuerst da war. Zur Not kann man die Content-Diebe auch bei Google melden.
Title-Tag
Ich sehe es oft im Web, dass auf einer Firmenwebsite einfach überall die selben Title genutzt werden. Dabei ist der Title recht wichtig für die Suchmaschinenoptimierung.
Deshalb sollte man für jede Seite einen individuellen Title-Tag nutzen. Dieser sollte natürlich lesbar sein, aber auch die wichtigsten Keywords enthalten.
Natürlich sollte man auch darauf achten, dass der Title-Tag nicht fehlt.
Meta-Angaben
Ähnlich sieht es bei den Meta-Angaben aus.
Hier ist vor allem der Description-Meta-Tag wichtig, da dieser in der Regel als Text in den Google Suchergebnissen erscheint.
Deshalb sollte man auch hier gleiche oder fehlende Meta-Angaben vermeiden.
Ich fülle den Keyword-Meta-Tag übrigens auch aus, obwohl dieser aus SEO-Sicht nicht mehr relevant ist.
Man kann sich die Eingabe der Title- und Meta-Angaben mit Plugins auch erleichtert. Bei WordPress nutze ich z.B. das kostenpflichtige Plugin wpSEO.
fehlende oder schlechte ausgehende Links
Links gibt es auf jeder Website in 3 Ausführungen.
Eine davon sind die ausgehenden Links. Also die Links, die man in eigenen Artikeln auf andere Websites setzt.
Manche sind der Meinung, dass diese generell schaden. Ich sehe das anders. Das Internet lebt von der Verlinkung. Und auch Google hat kein Problem mit ausgehenden Links.
Man sollte eben das Maß beachten. Wer auf einer Seite 200 Links nach draußen hat, der könnte leicht negative Folgen dadurch erleiden. Es ist aber auch nicht ganz unwichtig, wohin ihr verlinkt.
Wenn viele Links auf die sogenannte “Bad Neighborhood” verweisen, also auf Spammer, Malware-Site etc., dann kann auch die eigene Seite abgestraft werden.
Grundsätzlich bin ich aber ein großer Fan vom Verlinken anderer Websites. Das sieht Google insgesamt recht gern.
fehlende eingehende Links
Eine weitere Linkart sind die eingehenden Links, also Links zu eurer Website, die auf anderen Websites gesetzt wurden (sogenannte Backlinks).
Hierbei handelt es sich ohne Frage um einen der wichtigsten SEO-Faktoren.
Es gibt verschiedene Möglichkeiten für Backlinks zu sorgen. Ich bevorzuge es hochwertige Inhalte zu erstellen und dafür freiwillige Backlinks aus dem Web zu bekommen.
Andere setze auf die aktive Link-Akquise.
Wie auch immer, ohne Backlinks läuft im SEO fast nichts. Man sollte aber auch hier darauf achten, dass die Backlinks mehrheitlich eine gute Qualität haben und von Seiten kommen, die thematisch passen und einen gewissen Trust bei Google haben.
Und macht nicht den Fehler, immer den selben Ankertext bei manuell gesetzten Backlinks zu verwenden. Man sollte auch nicht immer Keywords im Ankertext verwenden. Natürliche Backlinks haben das schließlich auch nicht.
fehlende interne Verlinkung
Die dritte Linkart sind die internen Links.
Viele Websites verzichten, bis auf die Hauptnavigation, gänzlich auf eine interne Verlinkung. Diese ist aber wichtig um inhaltliche Zusammenhänge darzustellen und natürlich kann man durch eine gute und gezielte interne Verlinkung auch einzelne Artikel für Google noch wichtiger darstellen.
Es gibt natürlich auch eine Reihe von Plugins, die das automatisch erledigen.
Neben den positiven SEO-Effekten ist eine gute interne Verlinkung natürlich auch für die Leser positiv. Diese haben mehrere Möglichkeiten durch einen Blog zu navigieren und finden einfacher weitergehende Informationen.
In der Summe führt das zu zufriedeneren Leser und damit ist auch Google glücklicher.
Keyword-Mangel
Letztens habe ich einen Blog gesehen, dessen Inhaber sich wunderte, warum er nicht gut rankt. Die Artikel waren inhaltlich gut und auch sonst wurde vieles richtig gemacht.
Allerdings hatte der Autor das jeweils wichtige Keyword oft nur in der Überschrift verwendet und nicht im eigentlichen Text. Das ist natürlich ebenso ein Fehler, den man nicht begehen sollte.
Bei allen technischen Fortschritten die Google gemacht hat, benötigt der Crawler trotzdem die richtigen Keywords auch häufiger im Text, um das Thema eines Textes korrekt einordnen zu können.
Linktausch/Linkkauf
Kommen wir zu Maßnahmen die Google skeptisch sieht. Was Linktausch ist sollte klar sein. Allerdings sollte man vermeiden, einfach 1:1 mit anderen Links zu tauschen. Das erkennt Google recht gut.
Bei wenigen Linktausch-Aktionen wird Google da sicher noch nicht ein Penalty verteilen, aber wenn man es übertreibt, könnte das negative Folgen haben.
Übertreiben sollte man auch nicht den Linkkauf. Man muss natürlich realistisch sein und akzeptieren, dass der Linkkauf heute noch immer zu einer der wichtigeren Maßnahmen von SEOs gehört. Aber auch hier sollte man es nicht übertreiben und wenn, dann z.B. nur thematisch passende Links kaufen.
Backlink-Struktur
Beim Linktausch und Linkkauf sollte man aufpassen, dass man keine unnatürliche Backlink-Struktur erzeugt.
Diese beurteilt Google vor allem an 2 Faktoren.
Zum einen die Verteilung der Backlinks. Eine natürliche Backlinkstruktur besteht aus sehr viele kleinen und schwachen Links (von kleinen Site mit niedrigem oder gar keinem PageRank etc.) und wenigen besseren Backlinks.
Auch wenn der PageRank an sich nicht mehr so relevant ist, kann man mit dessen Hilfe die eigene Backlinkstruktur ganz gut überprüfen.
Es sollten idealerweise immer weniger Backlinks mit steigendem PageRank werden. Also z.B. 100 PR0 Backlinks, 30 PR1 Backlinks, 10 PR3 Backlinks etc.
Der zweite Faktor ist die Zeit. Natürliche Backlinks bauen sich relativ gleichmäßig auf. Wer sich aber einen Tag frei nimmt und Backlinks sammelt/erstellt/tauscht/kauft, der sorgt für eine unnatürliche Explosion der Backlinks. Das fällt Google natürlich auch auf.
So geht es weiter
Das waren also nun die Tipps 11-20. Im 3. und letzten Teil der Artikelserie stelle ich dann die letzten 11 SEO-Fehler meiner Artikelserie vor.
- Danke für 16 tolle Jahre - 13. Juli 2023
- So erstellst du deine erste Newsletter-Mail in 10 Schritten mit CleverReach - 13. Juli 2023
- Die 5 besten Features des Amazon Affiliate WordPress Plugin – AAWP - 12. Juli 2023
Gerade das Thema Keyword-Mangel hatte ich mir zuletzt vorgenommen und es hat sich spontan gelohnt. Das ist also meines Erachtens ein ganz wichtiger Punkt.
Warum füllst Du das Keyword-Meta-Tag noch aus, wenn es für Google nicht mehr relevant ist?
Hallo, sehr interessante Liste, auch Teil 1 hat mir geholfen. Gibt es auch so etwas wie eine Todo-Liste was man tun sollte, um gut gelistet zu sein? Oder steht da mehr oder weniger nur dann drin kein DC und viele Links?
Mit freundlichen Grüßen
Achim
Hallo Peer,
wieder ein guter Artikel. Gerade bei dem Thema SEO fällt es vielen Leuten schwer, sich damit anzufreunden. Wie du schon geschrieben hast, es gehört einfach mit dazu. Man muss aber auch zugeben, dass dieses Thema doch immer komplexer wird und mehr Dinge beachtet werden müssen. Gerade wenn es um Spitzenpositionen geht, kann man mit “ein bisschen SEO-Wissen” nicht viel anfangen. Ich denke daher auch dein Artikelgedanke :).
SEO ist natürlich ein wichtiger Bestandteil, den kein Webseitenbetreiber aus den Augen verlieren sollte. Vor allem die OnPage-Optimierung ist hierbei zu nennen.
Guter Artikel.
Ich baue die Meta Kreywords auch noch ein, auch wenn das wohl nix bringt, alte Angewohnheit.
Seit dem Panda Update hat Google sowieso komplett umsotiert und Spam Texte aussotiert. Ist auch besser so.
Ich bin auf den dritten Teil gespannt…jeder hat so seine eigene Auffassung von Fehlern, aber bisher stimmt alles 😎
@ Leo: Das ist auch wirklich besser so. Keiner will z.B. nach Kühlschränken suchen und findet dann irgendeine schlechte Seite die einfach nur weiterleitungen bereit hält. Ich finde Google macht das schon gut, auch wenn einige jetzt Angst bekommen!
Hallo zusammen, schöne Aufstellung der wichtigsten Suchmaschinenmaßnahmen. Jetzt muss der Webseitenbetreiber nur noch seine Strategie aus den Informationen entwickeln. Genau hier scheitert es.
Guter Artikel, besten Dank dafür. Ich erstelle gerade für das Geschäft, in dem ich arbeite, eine neue Internetpräsenz und da kommt mir diese Artikelserie wie gerufen..
Moin!
Sehr guter Artikel, danke dafür. Bislang haben wir alles richtig gemacht, bin gespannt wie es weiter geht…
Gute Aufzählung! Ich denke, das Wichtigste ist, eine langfristige Strategie zu haben, und nicht irgendwelche alten Tricks zu befolgen, die man mal irgendwo aufgeschnappt hat – und die von Suchmaschinen heute eher negativ betrachtet werden, oder tatsächlich noch nie als relevant angesehen wurden. Halbwissen kann hier viel schaden…
Ein guter Artikel. Beim Linkkauf/-tausch würde ich noch etwas mehr ins Detail gehen. Denn Links kaufen und tauschen an sich ist ja nichts kriminelles und wenn es gut gemacht ist, wird es auch von Google nicht erkannt.
Wie kann Google sehen, ob ein Link bezahlt wurde?
1. der Link befindet ist im Footer oder in der Blogroll und ist nicht themenrelevant oder enthält einen kommerziellen Text, wie z. B. “günstige Kredite”.
2. gemietete Links werden immer wieder gesetzt und entfernt. Schlecht sowohl für die Verkäufer als auch für Käufer, da auf diese Weise praktisch jeder identifiziert werden kann.
Gute Links, die auch nicht als solche automatisch erkannt werden:
1. Sie sind in einem themenrelevanten Content eingebunden.
2. Der Abstand zu den Nachbarlinks beträgt mindestens 300 Zeichen.
3. Sie sind dauerhaft und werden nicht mehr entfernt.
Um solche gute Backlinks zu bekommen muss man
1. Blogbeiträge bestellen. Allerdings nicht bei Trigami oder Hallimash, da die Links Nofollow sind, sondern z. B. bei everlinks.net
2. Pressemitteilungen veröffentlichen
3. Gastbeiträge schreiben
4. Linkbaiting nutzen. Dafür muss man aber auch oft die ersten Beiträge bezahlen und hat kaum Möglichkeit die gesetzten Keywords zu steuern.
Es gibt auch viele weitere Techniken, die ich aber nicht mehr als White-Hat bezeichnen kann.
Ich habe noch ein wichtiges Kriterium von schlechten Links vergessen:
– mehrere Links in einem Artikel, die alle auf die gleiche Domain verweisen. Wenn es um autoritäre Seiten wie Wikipedia, Facebook etc handelt, dann ist es nachvollziehbar, sonst würde ich es nicht machen. Ich habe schon mehrere Beiträge gesehen, wo mehrere Keywords wie “kostenlos spielen”, “Online Games”, “gratis Spiele” etc auf die gleiche Domain verweisen. Ein klares Indiz dafür, dass man mit solchen Artikeln die Suchergebnisse manipulieren möchte.
Eine schöne Zusammenstellung, es fehlt wirklich nicht mehr viel. den rest darf man dann im 3. Teil erwarten. @ Alex: deine Tipps finde ich auch sehr angebracht und everlinks kannte ich noch gar nicht, danke dafür 🙂