Technische Suchmaschinenoptimierung
An den richtigen Stellschrauben drehen
Wer im Internet gefunden und wahrgenommen werden will, muss sämtliche Register ziehen und seine Website fit machen. Nur dann wird sie bei relevanten Google-Suchanfragen ganz vorne mit dabei sein. Die Navigationsstruktur und damit Usability, also die Nutzerfreundlichkeit einer Seite und natürlich die Inhalte sind wichtige Parameter im Gerangel um die vordersten Plätze des Rankings. Doch wer sich hier durchsetzen will, muss seine Website vor allem technisch für die Suchmaschine optimieren. Technisches SEO schafft also die Grundvoraussetzungen für ein optimales Google-Ranking. Und nur wer hier seine Hausaufgaben macht, kann sicher sein, dass auch weitere Maßnahmen greifen.
Technische Suchmaschinenoptimierung (SEO) – was ist das?
Technisches SEO meint die Optimierung einer Website auf technischer Ebene. Und das bedeutet nichts anderes als kontinuierlich dafür zu sorgen, dass Google die Seiten schnell erfassen und sauber indizieren kann. Analyse und Indexierung übernehmen sogenannte Webcrawler oder Bots, kleine Computerprogramme, die weitgehend automatisch sich wiederholende Aufgaben übernehmen. Sie besuchen und lesen eine Website. Wie viel Zeit ihnen dafür bleibt, wie oft sie vorbeischauen sollen, bestimmt Google (Crawl-Budget). Wie viele Seiten sie in diesem Zeitraum schaffen und wie gründlich sie ihre Arbeit verrichten, das hängt ab von einer ganzen Reihe technischer Parameter.
Die wichtigsten Stellschrauben des technischen SEO
Je schneller eine Website lädt, desto mehr Seiten kann ein Crawler innerhalb der vorgegebenen Zeit erfassen. Die Voraussetzungen für eine optimale Performance sind vor allem ein schneller Webserver, eine gut strukturierte, saubere HTML-Programmierung und schlanke Seiten mit reduzierten Datenmengen.
Der Quellcode kann eine ganze Menge überflüssiger oder auch falscher Programmzeilen enthalten, die bei der Seitendarstellung im Browser nicht ins Gewicht fallen. Die Webcrawler aber stolpern womöglich über solche Code-Schnipsel oder bleiben daran hängen. Das gilt es zu vermeiden: Die Qualität des Quellcodes wirkt sich wesentlich auf das Ranking einer Website aus.
Die Metadaten enthalten verschiedene Informationen zu einer Seite, die in der Regel auf der Browser-Oberfläche, also für den Nutzer nicht sichtbar sind. Dazu zählen unter anderem der Seitentitel (Title) und eine Beschreibung der Inhalte (Description). Beides wird im Suchergebnis, also im Google-Ranking angezeigt. Damit ein Nutzer eine Website nicht nur findet, sondern auch daran hängen bleibt, die richtigen Schlüsse zieht und den Link anklickt, sollten sowohl Title als auch Description möglichst aussagekräftig formuliert sein. Findet der Google-Bot gar keine Metadaten, greift er sich irgend ein Textfragment der Seite – das im Zweifel vom Nutzer einfach ignoriert wird.
Eine Sitemap im XML-Format ist eine Art Gebäudeplan einer Website. Sie kann nur von Bots gelesen werden und unterstützt ihn dabei, die Struktur und Navigation schnell zu erfassen und sich einen Überblick über die Inhalte zu verschaffen. Eine XML-Sitemap hilft dem Crawler außerdem, Wege zu finden, auf denen er sich durch die Site bewegen kann, und – ganz wichtig – mögliche Sackgassen zu meiden. Praktisch: Eine XML-Sitemap passt sich automatisch einer sich verändernden Struktur an.
Endet ein Link, der von einer externen auf eine Seite der eigenen Website verweist, im Nirvana, ist das im besten Fall für den Nutzer lästig und den Sitebetreiber peinlich. Google straft solche Dead Links oder Broken Links, die eine 404-Fehlermeldung erzeugen, auch ganz gerne mal mit Nichtbeachtung; schlimmstenfalls fliegt die Seite aus dem Index. Das kann etwa bei temporären Angeboten, etwa einem Gewinnspiel oder einer Stellenausschreibung, Seiten zu Messen und anderen Events oder auch bei Umbauten der Site-Struktur, leicht passieren. Mögliche Gegenmaßnahmen: Seiten nicht einfach rausnehmen, sondern mit einem entsprechenden Hinweis versehen („Das Gewinnspiel ist beendet.“); Navigation anpassen; Links umleiten auf die aktualisierte Seite, auf Seiten ähnlichen Inhalts oder auf die nächsthöhere Hierarchieebene, zur Not auf die Startseite.
Jede Seite im Internet hat eine einzigartige, spezifische Adresse, oft kryptische Zahlen- und Buchstabenkolonnen, die etwa von einem Redaktionssystem automatisch erzeugt werden, mit denen Nutzer aber gar nichts und Webcrawler nur wenig anfangen können. Eine sogenannte sprechende URL hingegen verweist auf eine nachvollziehbare Ordner- und Dokumentenstruktur innerhalb einer Domain. Der Crawler kann daraus wichtige Hinweise auf die Inhalte und damit relevante Informationen für eine sinnvolle Indexierung ableiten.
Bots können keine Bilder und Grafiken lesen, sondern ausschließlich Text. Also sollten die Image-Tags alternative Texte mit aussagekräftigen Beschreibungen der Bildinhalte enthalten. Die können nicht nur von Bots interpretiert werden, sondern auch von sogenannten Screenreadern, wie sie etwa Nutzer mit Sehbehinderung einsetzen. Ähnliches gilt für interne wie externe Links: der sogenannte Title-Text beschreibt, auf welche weiterführenden Informationen auf anderen Seiten ein Link verweist.
Man kann die Bots von Google & Co. mit einer simplen Textdatei (Robots.txt) zwar nicht wirklich aussperren, aber zumindest darauf hinweisen, wie sie sich auf einer Seite verhalten und ob sie eine Seite indexieren sollen. Die meisten Suchmaschinen halten sich an solche Vorgaben.
Soziale Netzwerke spielen in der Kommunikation einer Organisation eine immer wichtigere Rolle. Postet ein Nutzer etwa auf Facebook oder Twitter einen Link zu einer Website oder auch einer spezifischen Seite, beispielsweise mit einem interessanten Artikel, erscheinen in den Timelines Headline und eine Beschreibung, oft mit Foto. Die Darstellung entspricht in der Regel dem Titel der Seite und einem mehr oder weniger sinnvollen „Snippet“ mit einer kurzen Beschreibung aus dem Seitenquelltext (siehe Metadaten). Meist ist das völlig ausreichend. Facebook hat darüber hinaus sogenannte Open-Graph-Tags definiert, die analog zu den Metadaten in den Quellcode integriert werden. Open-Graph-Tags ermöglichen abweichende Angaben für Titel, Beschreibung und Bild, die zudem in einem für Facebook optimierten Format dargestellt werden.