3 typische SEO-Fehler, die Ihre Website am Ranken hindern

Machen Sie diese 3 typischen SEO-Fehler auf Ihrer Website? Lernen Sie in dieser Podcast-Episode, wie sich Suchintention, Website-Geschwindigkeit und Duplicate Content auf Ihre Rankings auswirken und was Sie tun müssen, um die drei häufigsten SEO-Fehler zu meistern.

Episoden-Transkript

Hi, schön, dass du wieder dabei bist und willkommen zur achten Episode von Let’s Talk Online Marketing, dem Internetmarketing-Podcast für Dienstleistungsunternehmen. Ich bin Kai Bader. Wir reden heute endlich mal ein bisschen detaillierter über das Thema Suchmaschinenoptimierung. Und zwar, was ich mir gedacht hab ist, dass wir heute über häufige SEO-Fehler reden, die vor allem KMUs auf ihren Websites machen.

Fehler 1: Suchintention ignorieren

Ich würde sagen, lass uns einfach mal mit Fehler Nummer 1 reinstarten. Und der erste Fehler ist: Suchintention ignorieren.

Falls du jetzt neu in dem Thema SEO bist, dann lernst du jetzt schon mal eine der wichtigsten Lektionen, wenn’s um die Suchmaschinenoptimierung geht. Wenn du die Suchintention draufhast, hast du schon eines der wichtigsten Dinge abgehakt.

Also, was meine ich damit jetzt, mit der Suchintention und inwiefern spielt sie eine Rolle, wenn’s um Rankings in Suchmaschinen geht? Die Suchintention ist sozusagen die Motivation, hinter einer Suche. Also das Warum.

Ich habe gerade mal meine Browser-History nach Google-Suchen durchforstet, um dir ein Beispiel zu geben. Eine Suchanfrage, die glaube ich leicht verständlich ist, war „40 Grad Fahrenheit in Celsius“. Hier ist die Suchintention relativ eindeutig.

Hier will ich ganz klar keinen 1000-Wörter-Artikel darüber lesen, sondern einfach eine Zahl ausgespuckt bekommen. Also 40 Grad Fahrenheit ist gleich viereinhalb Grad Celsius. Natürlich wäre so eine Suchintention für SEO praktisch komplett uninteressant, weil sie Google sowieso direkt auf der Suchergebnisseite beantwortet, aber nur, damit du das Prinzip verstehst. Theoretisch kann man jetzt auch noch tiefer graben.

Also warum möchte ich eigentlich wissen, was 40 Grad Fahrenheit in Celsius sind? Was mache ich mit dieser Information?

Aber das ist wieder ein anderes Thema. Wichtiger ist, dass es mehrere Arten von Suchintention gibt. Suchen können z. B. auf Informationen abzielen, oder aber klar einen Kauf beabsichtigen.

Jetzt ist die Suchintention eigentlich aber gar kein richtiger Rankingfaktor. Dass du die Suchintention triffst, ist vielmehr das Qualifying, um überhaupt für Rankings infrage zu kommen.

Das heißt: Die Suchintention zu befriedigen ist keine Option, sondern Pflicht.

OK, aber warum ist das so? Das wird recht schnell klar, wenn du dir überlegst, was eine Suchmaschine eigentlich tut beziehungsweise wann eine Suchmaschine aus Sicht der Nutzer gut funktioniert. Wenn wir uns jetzt zum Beispiel Google anschauen, dann hat Google das Ziel, das beste, passendste und hilfreichste Ergebnis zu einer Suchanfrage zu liefern.

Wer würde Google benutzen, wenn damit nicht das finden würde, was man eigentlich braucht. Wahrscheinlich niemand.

Google verdient viel Geld mit Werbeeinnahmen und hat natürlich ein großes Interesse, dass das auch so bleibt. 2020 waren das übrigens knapp 150 Milliarden US-Dollar, wobei da auch Werbeeinnahmen von YouTube mit dabei waren.

Aber so oder so hängt Googles Existenz quasi mit an dieser Suchmaschine. Aber auch für Google ist es eine Herausforderung zu verstehen, was ein Nutzer genau erreichen will, wenn er eine Phrase eintippt und auf Suchen klickt.

Besonders bei generischen Suchbegriffen ist das schwierig. Mit der Zeit ist Google immer besser geworden und versteht mittlerweile recht gut, was die eigentliche Intention einer Anfrage ist. Entsprechend gut passen dann auch die Suchergebnisse. Aber damit wird denke ich klar, warum die Suchintention so eine wichtige Rolle spielen muss.

Für Websitebetreiber bedeutet das, dass man heute schon abliefern muss, um ranken zu können. Eine Frage irgendwie halbherzig zu beantworten reicht einfach nicht mehr, um langfristig zu ranken.

Vielleicht schafft man es damit kurzfristig auf die erste Seite, aber spätestens die Nutzer selbst werden Google dann doch zu verstehen geben, dass sie das Ergebnis nicht zufriedenstellt. Ob deine Seite die Suchintention befriedigt misst Google übrigens durch das Nutzerverhalten.

Klickt ein Nutzer beispielsweise auf das erste Ergebnis und braucht nur wenige Sekunden, um wieder zurückzuspringen und stattdessen das zweite Ergebnis anzuklicken, ist das ein sehr schlechtes Signal. Also, um auf den eigentlichen Fehler zurückzukommen: Viele KMUs machen sich bei der Content-Erstellung keine oder zu wenige Gedanken über die Suchintention.

Ob eine Seite rankt oder nicht, ist dann bestenfalls ein Glückstreffer. Aus meiner Sicht ist das ein Problem, weil Content dadurch keine organische Reichweite generieren kann und auch nicht zur Zielerreichung beiträgt, wenn er nicht rankt.

An dieser Stelle ein schneller Tipp, den du sofort in deinem Unternehmen umsetzen oder an deine Mitarbeiter weitergeben kannst: Analysiere die SERPs gründlich, um die Suchintention zu verstehen.

Falls du nicht weiß, was die SERPs sind, das ist die Search Engine Results Page, also die Suchergebnisseite.

Also im Prinzip heißt das, dass du einfach den Suchbegriff googeln sollst, für den du ranken willst. Und dann schaust du dir die Top-Positionen ganz genau an.

Das, was in den Suchergebnissen in den Top-Positionen rankt, deckt nach der Meinung von Google die Suchintention ab und darüber hinaus erfüllen diese Seiten natürlich auch noch andere Rankingfaktoren.

Wenn du also wissen möchtest, was du alles an Information und Content bieten musst, starte deine Suche DURCH eine Suche und die Analyse der Ergebnisse.

Das ist einfach ein sehr guter Anhaltspunkt für den Anfang. Spiele dann ein bisschen mit den Suchbegriffen herum.

Spannend finde ich zum Beispiel immer mir anzuschauen, ob sich z. B. die Suchergebnisse ändern, wenn du mit Synonymen, Mehrzahlen oder anderen Zeitformen spielst. Ist es ein Unterschied, ob jemand „Felge kaufen“ oder „Felgen kaufen“ sucht?

Ich hab das gerade mal gemacht und die Ergebnisse überschneiden sich zwar, sind aber nicht 100%ig identisch. Wer Felge kaufen sucht, sucht zwar oft auch nach mehreren neuen Felgen, könnte aber genauso auch nur eine Felge brauchen oder sich für gebrauchte Felgen interessieren. FelgeN kaufen geht da schon eindeutiger in Richtung Neukauf.

Also: Achte darauf, dass Content der ranken soll nicht produziert wird, bevor nicht die Suchintention klar definiert werden kann. Übrigens, wenn du gerne eine separate Episode zum Thema Suchintention haben möchtest, melde mich gerne bei mir, dann kann ich das auf jeden Fall einrichten!

Fehler 2: Bilder nicht fürs Web optimieren

Weiter geht’s mit Fehler Nummer 2. Diesmal etwas weniger kompliziert. Und zwar geht es um Bilder auf deiner Website. Genauer gesagt geht es darum, Bilder auf die Website hochladen, ohne diese vorher fürs Web zu optimieren.

Ich bin ehrlich überrascht, wie häufig ich auf Websites von Kunden Bilder finde, die mit 10 MB oder noch mehr hochgeladen wurden. Oft sind diese riesigen Bilder dann auch noch relativ unwichtig.

Der Klassiker ist hier zum Beispiel, dass man ein Zertifikat oder so im Footer platzieren möchte und einfach die Originaldatei hochlädt. Das Bild hat dann vielleicht 2000 mal 2000 Pixel und ist mehrere MB groß, wird aber auf der Website nur ein zehntel so groß dargestellt.

Warum ist das ein Problem? Aus verschiedenen Gründen. Also erstens mal bedeuten große Datenmengen, dass Seiten länger zum Laden brauchen. Das fällt dir vielleicht nicht mal so negativ auf, wenn du am PC zu Hause sitzt und mit einer 300 Mbit Glasfaserleitung im Internet surfst.

Aber ein großer Teil deiner Websitebesucher kommt wahrscheinlich über das Handy und das mobile Netz auf deine Website. Gerade in Regionen mit schlechter 4G-Abdeckung braucht deine Seite dann einfach endlos lange zum Laden. Und die bittere Wahrheit ist, dass niemand heute noch die Geduld für langsame Websites hat.

Du verlierst dann einfach Traffic und noch schlimmer auch Conversions, wenn deine Seite nicht schnell lädt. Neben der schlechten User Experience wirkt sich die Geschwindigkeit deiner Website auch auf deine Rankings aus.

Die Geschwindigkeit ist aber zugegeben nur ein kleines Puzzelteil in der Suchmaschinenoptimierung.

Bilder richtig zu dimensionieren und zu vor allem zu komprimieren ist aber eine der einfachsten Möglichkeiten, um die Websitegeschwindigkeit zu erhöhen.

Du kannst deine Website ganz einfach auf solche zu großen Bilder testen. Mit ScreamingFrog zum Beispiel kannst du deine Website kostenlos und schnell crawlen lassen und zu große Bilder finden. Falls deine Seite mit WordPress gebaut ist, gibt es dafür auch Plugins, die deine Bilder automatisch komprimieren.

Ach ja, in diesem Beispiel war das Bild jetzt ja auch noch im Footer, was bedeutet, dass das Bild auf jeder einzelnen Seite geladen werden muss, das heißt hier machst du mit einem zu großen Bild deine ganze Website langsamer.

Achte also darauf, dass du deine Bilder bevor du sie hochlädst auf eine angemessene Größe reduzierst. Was ist jetzt angemessen? Na ja, das kommt letztendlich darauf an, wie das Bild verwendet wird und was für einen Zweck es erfüllt.

Bist du z. B. Fotograf oder hast du ein Hotel, sind Bilder einfach ein wichtiges Element auf deiner Website. Andere Branchen kommen mit weniger Bildern aus. Ist das Bild ein Headerbild, muss es natürlich auch größer sein als, wenn es nur im Text als Auflockerung dient.

Als Faustregel achte ich z. B. darauf, dass Bilder, wenn möglich unter 100 Kilobyte groß sind. In Einzelfällen sind aber auch bis zu 400 Kilobyte noch OK. Das hängt letztendlich auch davon ab, wie viele Bilder auf einer Unterseite vorkommen, denn die gesamte Seite sollte natürlich auch nicht zu groß werden. Jedenfalls, je kleiner, desto besser, zumindest bis die Bilder verpixelt aussehen, das ist immer eine Gratwanderung.

Fehler 3: Duplicate Content

Machen wir weiter mit dem dritten Fehler. Dieser Fehler ist deutlich schlimmer als der vorherige und kann deine Website-Rankings komplett kaputtmachen: Es geht um Duplicate Content.

Falls du damit nichts anfangen kannst, Duplicate Content ist letztendlich Content, der nicht einzigartig ist. Es gibt aber verschiedene Abstufungen. Also wenn die Inhalte von zwei Seiten sich 100% ähneln inklusiver aller Texte, Bilder und mit identischem Quelltext, spricht man von echtem Duplicate Content.

Aber es gibt auch Near Duplicate Content, das heißt „beinahe“ Duplicate Content. Diese sind genauso problematisch.

Also wenn zum Beispiel ein Absatz nicht nur auf deiner Website, sondern auch noch auf einer anderen Website vorkommt. Du denkst jetzt vielleicht, haja, dann darf man halt nicht einfach irgendwelche Sachen von fremden Websites kopieren. Ja, das stimmt schon. Aber es geht noch viel trivialer.

Wenn deine Website zum Beispiel sowohl über HTTP als auch über HTTPS erreichbar ist, ist das ebenfalls aus Sicht der Algorithmen Duplicate Content. Also nicht falsch verstehen, natürlich sollte deine Website über beide Protokolle erreichbar sein, aber es sollte immer nur ein Protokoll wirklich aufrufbar sein. Das heißt, dass wenn jemand einen Link mit HTTP eingibt, muss er auf HTTPS weitergeleitet werden. Ist das nicht der Fall, ist das problematisch.

Auch wenn auf allen Unterseiten dieselbe Meta-Description hinterlegt ist, ist das schlecht. Das ist dann zwar lange nicht so schlimm, aber eben doch ein Problem. Du siehst schon, Duplicate Content ist sowohl innerhalb deiner eigenen Website als auch bezogen auf verschiedene Domains problematisch.

Das waren jetzt Beispiele für internen Duplicate Content, aber natürlich ist es auch ein Duplikat, wenn du von anderen Websites – zum Beispiel Wikipedia – Inhalte für deine eigene Website 1 zu 1 kopierst.

Warum sind Duplikate jetzt so schlimm?

Also wir sprechen jetzt mal nur rein aus der SEO-Sicht. Urheberrecht und so weiter lassen wir mal außen vor. Zunächst mal möchte ich gerne klarstellen, dass Google prinzipiell versteht, dass interne Duplikate einfach auch mal unabsichtlich entstehen können, also völlig frei von bösen Absichten.

Shopbetreiber haben zum Beispiel oft die Situation, dass sie einen Artikel in verschiedenen Varianten anbieten. Dann ändert sich vielleicht das Bild oder so, aber alles drum herum bleibt identisch. Das liegt einfach in der Natur der Sache und das Problem ist mit dem kanonischen Tag leicht in den Griff zu bekommen.

Aber Google ist seit dem Panda-Update im Jahr 2011 sehr empfindlich, wenn der Verdacht aufkommt, dass mit Duplikaten aktiv manipuliert wird. Das liegt einerseits daran, dass Google Nutzer verschiedene Informationen anbieten möchte, weil das einfach hilfreicher für sie ist und es keinen Grund gibt, mehrere identische Dokumente in den Index aufzunehmen.

Aber Duplikate zu indexieren ist auch einfach Verschwendung von Ressourcen. Du musst dir vorstellen, dass Google riesige Infrastruktur-Kosten hat, um das Internet nach neuen Inhalten und so weiter zu durchsuchen und jede doppelte Seite kostet nun mal unnötig Geld. Profis ist sicherlich das Wort Crawl-Budget ein Begriff.

Finden sich auf deiner Website jetzt solche Duplikate kann das je nach Ausmaß einerseits rechtliche Konsequenzen und andererseits negative Auswirkungen auf die Rankings bis hin zu richtigen Abstrafungen von Google mit sich ziehen.

Im ersteren Fall gilt das zumindest, wenn du die ursprüngliche Quelle nicht in Form von Quellenangaben kenntlich machst. Erkennen jetzt Suchmaschinen wie Google, dass sich auf deiner Website Duplikate befinden und dies ein betrügerisches Ausmaß annimmt, dann musst du mit entsprechenden Rankingverlusten rechnen.

Das kann sogar die gesamte Website betreffen und nicht nur die einzelnen Seiten, auf denen sich Duplicate Content befindet. Also, mach dich jetzt nicht verrückt deswegen, wenn du nicht aktiv versuchst zu manipulieren, wurdest du vermutlich nicht von Google manuell abgestraft.

Aber achte einfach darauf, dass deine Inhalte möglichst einzigartig sind und vor allem nicht ganze Blöcke an Inhalten doppelt vorkommen. Noch ein paar Tipps, welche Schritte du mindestens umsetzen solltest, um Duplicate Content zu vermeiden:

Vielleicht am offensichtlichsten ist es, dass du Copy-and-paste von Texten komplett vermeiden solltest. Damit meine ich einerseits das bewusste Klauen von Inhalten anderer Websites, um sich Arbeit zu sparen.

Das fällt langfristig einfach negativ auf dich zurück und es lohnt sich wirklich nicht an dieser Stelle Zeit zu sparen. Selbst wenn du diese Texte dann ein wenig umschreibst, bleibt die Verbindung zur Originaldatei unter Umständen immer noch erkennbar.

Weniger offensichtlich ist aber vielleicht, dass du auch Pressetexte nicht 1-zu-1 auf deiner Website veröffentlichen solltest, zumindest nicht, wenn du mit diesen Texten ranken willst.

Auch Shopbetreiber sollten Produktbeschreibungen vom Hersteller z. B. nicht einfach kopieren, sondern soweit anpassen, umschreiben und ergänzen, dass der Text unique ist.

Ich habe vorhin ja schon erwähnt, dass es auch Duplicate Content ist, wenn deine Website über HTTP und HTTPS erreichbar ist. Dasselbe gilt für das vorausgehende www bei deiner Domain. Technisch gesehen ist www-Punkt nichts anderes als eine Subdomain, das heißt, dass alle URLs für deine Domain doppelt vorhanden sind, also einmal mit und einmal ohne www, genauso wie das auch für SSL zutrifft.

Achte also darauf, dass du nur eine Variante festlegst und alle anderen Varianten über die .htaccess-Datei auf diese Variante per 301-Redirect weiterleitest. Falls dir das jetzt zu kompliziert klingt, dann rede einfach mit deinem Webdeveloper, der weiß was zu tun ist.

Und vielleicht noch als Ergänzung ein Hinweis: Google und andere Suchmaschinen sind sich über das Problem natürlich im Klaren und handeln das Problem meistens auch ohne Weiterleitungen ganz gut. Aber gehe kein Risiko ein, Google macht auch Fehler und du solltest dein Glück nicht herausfordern.Außerdem solltest du noch darauf achten, dass du Staging-Umgebungen mit einem Passwort schützt oder zumindest via robots.txt Datei den Zugriff von Crawlern verbietest.

Es gibt natürlich noch weitere Dinge, die zu Duplicate Content führen können, aber ich glaube das sind schon mal die wichtigsten Ursachen. Aber falls du noch mehr erfahren möchtest, gebe ich dir mal noch ein paar Stichwörter mit, die du selbst recherchieren kannst:

Da wären zum Beispiel noch Trailing Slashes, Druckansichten und URL-Parameter, die ebenfalls problematisch werden können.

Im Idealfall hast du deine Website auch bereits bei der Google Search Console eingereicht. Falls du das noch nicht gemacht hast, empfehle ich es dir so schnell wie möglich nachzuholen. Dort lassen sich nämlich viele Informationen rauslesen, auch im Zusammenhang mit Duplicate Content.

Du kannst über den Bericht Abdeckung zum Beispiel ausgeschlossene URLs auslesen, die Google als Duplikate ansieht und entsprechend darauf reagieren.

Wie du konkret mit Duplicate Content umgehst, falls deine Seite betroffen ist, erkläre ich mal ausführlich in einer anderen Episode.

Falls dich so eine Episode interessieren würde oder du Hilfe brauchst, kannst du mich gerne über meine E-Mail-Adresse [email protected] anschreiben. Natürlich gibt es noch viele weitere relevante SEO-Fehler. Das fängt bei einfachen Title-Tags und Meta-Descriptions an und reicht bis hin zu kanonischen URLs, interner Verlinkung und minderwertigen Linkkäufen.

Für heute lasse ich es aber mal gut sein. Wie immer freue ich mich mega über Feedback und eine Rezension bei Apple Podcasts. Wenn du möchtest hören wir uns nächste Woche wieder! Bis dahin alles Gute, tschau!

Zuletzt geändert am 6. Juli 2021
Über den Autor
Kai Bader
Kai Bader

Kai Bader ist Online Marketer, Blogger, Podcaster und Unternehmer. Er hilft KMUs aus der DACH-Region dabei, Ihren ROI zu steigern, indem er die richtigen Online-Marketing-Kanäle für sie findet und maßgeschneiderte holistische Strategien für sie entwirft.