SEO-Regeln: Das sollte man zwingend beachten
Von den zahlreichen Begriffen, wie Robots, Crawler, Rankings, Offpage und Onpage im SEO-Bereich sind Neulinge oft schnell überfordert. Allerdings gibt es einige grundlegende SEO-Regeln, welche auch ohne spezielle Fachkenntnis beachtet, beziehungsweise umgesetzt, werden können.
Inhaltsverzeichnis
Sollten im eigenen Unternehmen jedoch keine Kapazitäten zur Verfügung stehen, um sich dem wichtigen Bereich der professionellen Suchmaschinenoptimierung überhaupt zu widmen, besteht eine empfehlenswerte Lösung in der Beauftragung von echten Experten, wie etwa der renommierten SEO Agentur aus Frankfurt.
Welche SEO-Regeln beziehungsweise Themen heutzutage die absolute Basis für eine erfolgreiche Suchmaschinenoptimierung darstellen, erklärt der folgende Beitrag.
Den Status-Quo überprüfen
Es ist empfehlenswert, im ersten Schritt den aktuellen Status-Quo der SEO-Bemühungen zu überprüfen.
Genutzt werden kann dazu eine sogenannte site-Abfrage der eigenen Domain. Diese leitet zu einer Suchergebnisseite, welche erkennen lässt, wie sich der Indexierungsstand der Webseite ungefähr gestaltet. Überprüfen lassen sich dabei auch gleich die verwendeten Kurzbeschreibungen und Titel.
Es lohnt sich daneben ebenfalls, einmal in die Google Search Console zu schauen. In dieser sollte ein Konto angelegt werden, denn sie stellt ein hilfreiches Werkzeug dabei dar, mehr über die Darstellung und die Performance der Webseite zu erfahren.
Die technischen Einstellungen optimieren
Im SEO-Bereich lassen sich einige technische Einstellungen identifizieren, welche nicht nur das Ranking in den Suchmaschinen, sondern ebenfalls das Nutzererlebnis für die Besucher der Webseite maßgeblich verbessern können. Spezielle Programmierkenntnisse sind für die entsprechende Umsetzung dabei kaum nötig.
Eine besonders große Bedeutung geht zum Beispiel von der Ladezeit der Webseite aus. Diese stellt einen sehr wichtigen Optimierungsfaktor dar, der sich leicht verbessern lässt. Heutzutage kommt es besonders darauf an, dass sich der Aufbau einer Webseite als flüssig und schnell zeigt. Ansonsten erhöht sich das Risiko, dass die Nutzer die Webseite sofort wieder verlassen und stattdessen eine Konkurrenz-Domain aufrufen.
Von Google selbst wird in diesem Zusammenhang ein praktisches Werkzeug zur Verfügung gestellt, um die Ladezeit zu analysieren. Dieses besteht in Google PageSpeed Insights. Daneben liefert dieses auch gleich konkrete Vorschläge für Verbesserungen.
Verantwortlich für schnelle beziehungsweise zu langsame Ladezeiten sind in der Regel die Größe der verwendeten Bilder, Videos und Grafiken sowie die Einbindung von zusätzlichen Features und Plug-Ins. Zu vermeiden sind auf der Webseite außerdem unnötige Weiterleitungsketten.
Die Indexierung
Um Google dabei zu helfen, die eigene Webseite zu finden, ist außerdem eine Überprüfung vorzunehmen, ob dem Crawler auf die Webseite überhaupt ein entsprechender Zugriff gewährt wird – schließlich ist keine Indexierung von Inhalten möglich, die nicht gefunden werden können.
Entscheidend ist in diesem Zusammenhang die robots.txt. Diese Textdatei wird von dem Crawler bereits gelesen, bevor die Webseite überhaupt ausgelesen wird. Es ist demnach zu prüfen, ob diese Textdatei vorhanden ist und diese dem Crawler auch die richtigen Anweisungen erteilt.
Die Architektur der Webseite
Die jeweilige Webseite muss den Nutzern natürlich nicht nur genau die Informationen bieten, nach denen sie suchen, sondern ihnen auch dabei helfen, diese auf der Seite zu finden. Entscheidend ist dafür, dass sich die Informationsarchitektur flach und intuitiv gestaltet, die Abgrenzung der einzelnen Themen scharf vorgenommen – Stichwort Siloing – und die internen Verlinkungen mit Bedacht aufgebaut werden.
Grundsätzliche sollte eine Webseite heutzutage nicht mehr als drei Ebenen aufweisen. Allerdings kommt es im Einzelfall natürlich stets darauf an, wie komplex sich das Thema der individuellen Webseite gestaltet. Große Online-Shops benötigen so beispielsweise in der Regel mehr als drei Ebenen.