SEO kann vieles sein. Eine ganze Reihe an Techniken gibt es immerhin schon seit Jahrzehnten. Wer an SEO denkt, wird deshalb meist an die Klassiker unter den SEO-Techniken denken. Keywords, die möglichst häufig auf einer Seite auftauchen – allerdings nicht so häufig, dass Suchmaschinen sie als Spam einschätzen. Meta-Beschreibungen sind ebenfalls unerlässlich. Links, die von einer Website und auf eine Website führen und so der Seite zu mehr Relevanz helfen. Wer sich mit Suchmaschinenoptimierung beschäftigt, stolpert über einen Berg an Ratschlägen. Solche Techniken haben allerdings in der Regel eines gemeinsam: Sie beziehen sich auf Inhalte einer Website, nicht die Website selbst. Wäre es möglich, auf zwei Webseiten die exakt gleichen Inhalte zu speichern und eine der beiden erringt trotzdem ein besseres Google-Ranking? Das geht tatsächlich, denn SEO lässt sich auch aus technischer Sicht betreiben.
Technische SEO bedeutet, dass eine Website für die bestmögliche Nutzererfahrung ausgelegt ist und sich von Suchmaschinen-Bots einfach auslesen lässt. Auch das ist eine wichtige Grundregel der SEO: Die besten Keywords bringen nichts, wenn weder Besucher noch Suchmaschinen die Inhalte finden und einordnen können.
Wie sieht eine optimierte Seite aus?
Eine technisch gute Seite erfüllt einige Voraussetzungen. So gehört es seit Jahren im Netz einfach dazu, SSL-Verschlüsselung einzusetzen. Das macht nicht nur die Nutzererfahrung besser, sondern wird auch von Suchmaschinen gern gesehen. Bei den meisten Browsern ist der SSL-Status einfach an einem Schloss-Symbol oder ähnlichen Icons neben der Adresszeile zu erkennen. SSL sollte auf der SEO-Liste weit oben stehen, denn hier überschneiden sich Vorteile für Besucher und Web-Crawler von Google und Co.
Ganz ähnlich verhält es sich mit der Ladegeschwindigkeit einer Website. Besucher erwarten, dass Inhalte schnell laden – mit jeder zusätzlichen Millisekunde steigt die Absprungrate. Seiten für Tempo zu optimieren ist eine Wissenschaft für sich, aber Besucher werden es Dir danken. Suchmaschinen übrigens auch, denn die merken sich, wie schnell eine Seite lädt. Zukünftig kann es durchaus passieren, dass sich Geschwindigkeit zu einem immer wichtigeren Ranking-Faktor entwickelt.
Saubere Websites: So gehts!
SSL und Ladeschwindigkeit sind gut messbare Ranking-Faktoren. Anders verhält es sich bei Optimierungen im Hintergrund, die entweder vorhanden sind oder halt nicht. Dazu zählt beispielsweise, dass alle Links auf einer Website „leben“ sollten, also erreichbar sind. „Tote“ Links – sogenannte verwaiste Inhalte – sammeln sich im Laufe der Zeit an und nagen an der Qualität Deiner Website. Beispiel: Links verweisen auf eine andere Website, die mittlerweile abgeschaltet wurde oder umgezogen ist. Oder: Du verweist auf Deine eigene Website, hast aber irgendwann den Link geändert. Weder Besucher noch Crawler mögen es, auf einen Text voller Verweise auf 404-Seiten zu stoßen.
Außerdem solltest Du darauf achten, dass Inhalte Deiner Website einmalig und keine Duplikate sind. Auch das geht schneller, als man erwarten würde – etwa dann, wenn zwei unterschiedliche Links irgendwo auf der Website auf die gleiche Unterseite umleiten. Für Google ist das ein Duplikat. Schlimmstenfalls führt es zu einem schlechteren Ranking.
Darauf achten Crawler
Web-Crawler achten auch auf Elemente, die für Besucher wenig oder gar nicht zu erkennen sind. Eines davon ist die Datei robots.txt. Sie enthält Informationen für Crawler und bittet sie, bestimmte Seitenteile zu ignorieren. Wer hier einen Fehler macht, schließt womöglich wichtige Seitenteile von der Google-Suche aus. Beispielweise passiert es schnell, dass robots.txt die CSS-Datei einer Website blockiert. Googles Crawler wissen dann nicht, wie die Website aussehen soll bzw. ob sie korrekt dargestellt wird.
Um Darstellung geht es auch in der sogenannten XML-Sitemap. Das ist eine Datei, in der die gesamte Seitenstruktur offen liegt. Sie verschafft einen hierarchisch sortierten Überblick über alle Seitenelemente und ist damit ein mächtiges Werkzeug für die Planung einer Website und für Crawler. Suchmaschinen können an der XML-Sitemap erkennen, worum es bei der Seite geht und was sich wo finden lässt. Die Datei stellt alle Seitenelemente in Bezug zueinander. Wie das Aufsetzen von robots.txt auch ist diese XML-Datei eine technische Herausforderung, aber der Aufwand lohnt sich. Solche Optimierungen im Hintergrund sind der Extra-Schritt, der im Ranking einen echten Unterschied zu anderen Websites machen kann – selbst dann, wenn diese ansonsten fast inhaltsgleich sind.
Brauchst Du Unterstützung bei der SEO-Optimierung Deiner Website? Hinterlasse uns dazu gerne einen Kommentar oder kontaktiere uns!