Ran an den Code – Technisches SEO

SEOs sollten technisches Verständnis und Programmierkenntnisse mitbringen.

Suchmaschinenoptimierung ist ein komplexes Thema, welches von denen, die sich darin bewegen, zahlreiche Fähigkeiten verlangt. Zum einen gehört dazu natürlich die Fähigkeit, strategisch zu planen und für eine Website die optimalen Maßnahmen vorzubereiten. Zum anderen ist auch ein solides Verständnis des Verhaltens der verschiedenen Benutzergruppen wichtig, um eine Seite für die anvisierte Zielgruppe interessant zu gestalten und die Besucher zum Abschluss der gewünschten Ziele zu führen. Aber SEOs benötigen heute ebenfalls auch technisches Verständnis.

Um es gleich vorweg zu nehmen: Suchmaschinenoptimierung besteht nicht im Ändern von Seitentitel, Description und H1, sondern ist weitaus mehr. Jeder, der sich heute mit SEO befasst, sollte grundlegende technische Fähigkeiten mitbringen. Keineswegs soll jeder Optimierer gleich ein begnadeter Hacker sein, der fähig ist, aus einem Stück PHP-Code in MacGyver-Manier ein Betriebssystem zu schreiben. Doch fundamentale Kenntnisse einiger Technologien sollten vorhanden sein, um mehr zu sein als ein Theoretiker.

SEO ist mehr als nur graue Theorie

Natürlich lässt sich über Suchmaschinenoptimierung ganz vortrefflich theoretisieren. Wenn es jedoch darum geht, die geplanten Maßnahmen umzusetzen, stoßen viele SEOs an ihre Grenzen. Dabei kann und darf es nicht das Ende der Weisheit sein, in einem Wald- und Wiesen-CMS mal eben eine Überschrift anzupassen oder den überoptimierten Seitentitel einzufügen. Technische SEO ist weitaus mehr und verlangt ein breit gefächertes Wissen in vielen Bereichen. Dies beginnt bei den Grundlagen, wie das Internet im Allgemeinen und das World Wide Web im Speziellen funktioniert, setzt sich über grundlegende Kenntnisse in Auszeichnungs- und Programmiersprachen wie HTML, CSS und PHP fort und endet noch lange nicht bei eventuell etwas tieferen Kenntnissen eines speziellen Content Management Systems.

Ein SEO muss kein Hacker sein, aber …

Um es gleich deutlich zu machen: Hacker sind keine wilden Datenzerstörer, von denen allenthalben in den aufklärungsresistenten Medien die Rede ist, wenn wieder einmal Datenbanken ausgeräumt oder der letzte ausgefeilte Trojaner in die Wildnis entlassen wurden. Hacker sind digitale Künstler und der Begriff des „Hacker“ ist bei weitem keine Beleidigung, sondern eine ehrenhafte Auszeichnung für begabte Softwareentwickler oder Menschen, die sich mit einem System sehr gut auskennen. Da sich der Begriff jedoch als Synonym für „ganz böser Computerbube“ in die Gehirne der unbedarften und unaufgeklärten Medienkonsumenten eingebrannt hat, sah ich mich an dieser Stelle zu einer Klarstellung bewogen.

… er sollte Quellcode lesen, verstehen und anpassen können

Wie dem auch sei, braucht ein SEO in der Regel nicht das tiefgehende Wissen eines eingefleischten Softwarearchitekten. Dennoch muss ein SEO gewisse Fähigkeiten im Umgang mit Quellcode aufweisen, wenn er Suchmaschinenoptimierung vernünftig und wirkungsvoll betreiben möchte. Er muss in der Lage sein, den HTML-Code einer Website zu verstehen und zu ändern. Auch muss er in der Lage sein, PHP-Code zu lesen, zu verstehen und – wenn nötig – zu ändern.

Oftmals bringen es Websites mit sich, dass sie modular aufgebaut sind. Vor allem CMS sind in der Regel nach diesem Muster konstruiert. Neben einer zentralen Hauptdatei, die alles zusammenhält und steuert, liegen unzählige weitere Dateien in unzähligen weiteren Verzeichnissen herum, die dynamisch eingebunden werden und Funktionen oder Erweiterungen enthalten. Ein SEO muss die Zusammenhänge eines solchen Systems verstehen, damit er weiß, wo und wonach er zu suchen hat. Andernfalls stöbert er sinn- und ziellos in irgendwelchen Ansammlungen von Quellcode herum, die er nicht versteht. Mit dieser Basis eine notwendige Anpassung vorzunehmen dürfte als Abenteuer enden.

Programmierkenntnisse als Basis für die Budgetplanung

Das alles gilt übrigens auch dann, wenn es einen guten Entwickler gibt, der im Dunstkreis des SEOs sein Arbeitnehmerdasein fristet. Denn kein Optimierer wird sich uneingeschränkt darauf verlassen können, dass immer ein solcher Entwickler greifbar ist. Auch besteht keine Garantie, dass jeder Kunde mit diesem Luxus aufwarten kann. 

Auf der anderen Seite helfen gewisse Kenntnisse in der Webentwicklung bei der Abschätzung von Aufwänden, gerade wenn ein Entwickler geplante Maßnahmen umsetzen soll. Schließlich muss auch diese Zeit, die ein Entwickler in die Website investiert, bezahlt werden. Und wenn der SEO bereits im Vorfeld aufgrund eigener Erfahrungen in der Websiteprogrammierung eine Vorstellung davon hat, wie umfangreich (= wie teuer) eine Änderung sein wird, ist das für die Budgetplanung durchaus von Vorteil.

Technische SEO ist Basis und Impuls für jede Website
Technische Suchmaschinenoptimierung ist die Basis und der Impuls für eine erfolgreiche Optimierung einer Website

Was ist technische SEO?

Suchmaschinenoptimierung teilt sich grob in zwei Bereiche: On-Page und Off-Page. Die Off-Page SEO befasst sich mit allem, was nicht auf der eigentlichen Website passiert. Backlink-Aufbau ist ein solches Thema. On-Page SEO hingegen befasst sich mit allem, was auf der zu optimierenden Website geschieht. Dazu gehören inhaltliche Anpassungen ebenso wie gestalterische Änderungen.

Die technische SEO wiederum ist sozusagen ein Teilbereich der On-Page SEO und befasst sich mit allem, was die Website betrifft, aber nicht direkt zu sehen ist. Und das kann – je nach Status der Website – ein umfangreiches Thema sein. Generell sollte eine Website technisch optimiert sein, bevor die tatsächliche On-Page Optimierung geschieht, denn erst wenn eine Website technisch solide funktioniert, ist die Basis für alle weiteren Maßnahmen geschaffen. Doch was genau gehört denn nun alles zur technischen SEO und welche Kenntnisse muss ein SEO dafür haben?

Bereinigung der URL-Struktur

Eine Website sollte in erster Linie für die Besucher der Seite gemacht sein. Dazu gehört nicht nur ein sinnvoller und nachvollziehbarer Aufbau der Seite, sondern auch lesbare Adressen. Wenn die URL einer ansonsten interessanten Unterseite nun ein unübersichtlicher Betriebsunfall aus kryptischen Zeichen und Parametern ist, wie sie von diversen recht bekannten CMS standardmäßig erzeugt wird, geht die Lesbarkeit naturgemäß gegen Null. Die Möglichkeiten, sich ein solches Ungetüm zu merken, sind ebenfalls sehr beschränkt. Hier setzt die technische SEO an, indem die URLs – wenn es nicht über einen einfachen Klick im CMS-Backend zu erledigen ist – lesbar gemacht werden. Man spricht in diesem Zusammenhang auch von den sogenannten sprechenden URLs.

Oftmals lassen sich solche Einstellung in der Tat über das Backend des CMS tätigen. Doch auch dann sollte der SEO natürlich wissen, wo er die entsprechenden Hebel findet, die er betätigen muss. Eine grobe Kenntnis der gängigen Content Management Systeme ist also durchaus von Vorteil. Spannend wird die ganze Sache jedoch erst, wenn sich solche – noch recht einfachen – Dinge nicht über ein CMS regeln lassen, sondern Eingriffe in den Quellcode des selbigen oder der Website erfordern. Dann sind hinreichend gute Kenntnisse des SEOs in gängigen Programmier- oder Scriptsprachen für das Web Voraussetzung.

Website mit Warp-Antrieb: Ladezeitoptimierung

Eines meiner persönlichen Lieblingsthemen im Bereich „Technische SEO“ ist die Optimierung der Ladegeschwindigkeit einer Website. Ob es nun eine Seite auf CMS-Basis oder – noch besser – eine per Hand programmierte Website ist, spielt dabei keine Rolle. Es gibt immer irgendwo noch ein Schräubchen, an dem man drehen kann, um noch die ein oder andere Millisekunde herauszuholen. Natürlich spielt es für die Suchmaschinenoptimierung so gut wie keine Rolle, ob eine Seite nun 1,25 oder 1,20 Sekunden geladen ist. Aber erstens zählt die Motivation und zweitens erzeugt es doch eine gewisse persönliche Genugtuung, wenn eine Website plötzlich nicht mehr fünf Sekunden braucht, um beim Nutzer anzukommen, sondern nur noch zwei.

Damit jedoch eine Website beschleunigt werden kann, muss jedoch sehr häufig direkt in den Quelltext der Website bzw. des darunter liegenden CMS eingegriffen werden. Im Ernstfall müssen Templatedateien angefasst, Codezeilen verschoben, Skripte zusammengefasst und Abschnitte aus dem Quellcode gelöscht werden. Um dies zu bewerkstelligen, sind naturgemäß Kenntnisse der Webprogrammierung notwendig, die ein SEO schlicht mitbringen muss, wenn er nicht auf die Umsetzung dieser Maßnahmen aufgrund externer Vergabe warten möchte.
Ebenfalls sind – beispielsweise für die Einrichtung der serverseitigen Komprimierung oder des Cachings – Änderungen an Konfigurationsdateien wie der HTACCESS notwendig. Für einen SEO ohne jegliche technische Grundlagen dürften das Aufgaben sein, die kaum aus eigener Kraft zu erledigen sind und im Normalfall ausgelagert werden, was im Grunde überflüssig ist.

Mobile Websites und AMP

Das Web ist mobil geworden. Nutzer bewegen sich immer häufiger mit ihren Smartphones und Tabletcomputern im Netz und Websites müssen sich dem anpassen. Hier besteht die Aufgabe des SEO nicht nur darin zu prüfen, ob eine Website auf allen Geräten für den Nutzer verwendbar ist, sondern auch in der Anpassung der Website und in der Behebung von Problemen mit der mobilen Darstellung.

Die Idee der Responsivität lässt sich jedoch noch weiter fassen, indem die Gruppe der möglichen Endgeräte erweitert wird. Dann kommen neben einem PC und einem Smartphone plötzlich Geräte wie Smartwatches und Sprachassistenten ins Spiel, die ebenfalls webbasierte Inhalte verarbeiten können. Und spätestens wenn es um die Optimierung von Content für die Sprachsuche geht, endet das Wissen der meisten SEOs, auch wenn dies nicht ausschließlich eine Frage technischer SEO ist. Nichtsdestotrotz muss ein Suchmaschinenoptimierer wissen, wie und auf welche Weise er eine Website für ein Smartphone optimiert. Er muss beispielsweise die entsprechenden CSS-Konstrukte ebenso kennen wie die technischen Eigenheiten, die eine mobile Website mit sich bringt.

Seit einiger Zeit kommt auf diesem Gebiet noch ein weiteres Thema hinzu: Accelerated Mobile Pages oder kurz AMP. Die maßgeblich von Google als Alternative zu Facebooks Instant Articles entwickelte Technologie erlaubt es, mobile Websites in einer nie zuvor dagewesenen Geschwindigkeit zu laden. Stimmen alle Voraussetzungen, sind Inhalte sprichwörtlich auf Knopfdruck beim Nutzer. Ein Suchmaschinenoptimierer sollte wissen, wie AMP funktionieren. Ein rudimentäres Verständnis der Implementierung dieser Technologie in eine bestehende Website darf ebenfalls vorausgesetzt werden. Im Vorfeld sollte er bereits entscheiden können, ob AMP für eine bestimmte Website geeignet und von Vorteil sind.

Räum Dein Zimmer auf!

Die meisten Websites, die bei einem SEO landen, sind mit überflüssigem Quellcode gespickt und beinhalten darüber hinaus meist noch alte Tracking-Codes, die seit der Wende bereits aus der Mode gekommen sind. Das Problem: diese Codestellen müssen erkannt werden. Dazu muss natürlich bekannt sein, was ein bestimmtes Codefragment tut und wie das Ergebnis im Browser aussieht.

Im Umkehrschluss bedeutet dies, dass hier Kenntnisse der Programmierung erforderlich sind, die den SEO in die Lage versetzen, Quelltext zu lesen und zu verstehen. Als Folge davon sollte es einem Optimierer ohne größere Probleme möglich sein, die fraglichen Codestellen zu identifizieren, zu entfernen oder entsprechend zu ändern. Uralte Tracking-Codes sollten durch aktuelle ersetzt werden, wenn es erforderlich ist. Dazu ist es notwendig beim entsprechenden Anbieter des Tracking-Tools die passenden Code-Snippets zu finden und in die Website zu integrieren.

Duplicate Content – von Canonical-Tags und 301-Weiterleitungen

Nein, es gibt keine Abstrafung für doppelte Inhalte durch Google. Und jeder, der das behauptet, sollte noch einmal ordentlich recherchieren. Dennoch sind Inhalte, die tatsächlich identisch oder zumindest sehr ähnlich sind, ein No-Go. Dies gilt sowohl für komplette Texte als auch für Seitentitel. Jede Unterseite einer Website sollte gefälligst einmalig sein und sich mit genau einem Themenbereich beschäftigen. Dies trägt nicht nur dazu bei, dass der Nutzer gewünschte Informationen an exakt einer Stelle wiederfindet, sondern bewirkt gleichzeitig, dass eine bestimmte Unterseite entsprechend relevant für eine Menge von Suchanfragen zu dem betreffenden Thema ist.

Das hört sich im ersten Moment kompliziert an, ist es aber nicht. Wenn sich eine Website um das Thema „Obst“ dreht, möchte ich in der Regel eine Unterseite zum Thema „Äpfel“. Auf dieser Unterseite behandle ich das Thema Äpfel so gut es geht und lege nicht zwei verschiedene Unterseiten für „grüne Äpfel“ und „rote Äpfel“ an. Das wirkt nicht nur Old-School, es ist Old-School. Und im schlimmsten Falle ist das Ergebnis ein Text, der sich lediglich im Wort „rote“ und „grüne“ unterscheidet.

Duplicate Content (DC) entsteht allerdings auch dann, wenn eine Seite unter mehreren URLs erreichbar ist, was die ursprüngliche Definition von „DC“ ist. Dies kann z.B. passieren, wenn eine Seite mit und ohne

  • HTTPS
  • WWW
  • „/“ (Slash) am Ende

aufgerufen werden kann, inklusive aller daraus resultierender Varianten. Objektiv gesehen ist es dann immer noch das selbe Dokument, also die selbe Unterseite. Technisch – und aus der Sicht der Suchmaschine – sind es aber bei Betrachtung der drei oben genannten Punkte im schlimmsten Falle acht verschiedene Seiten, die sich natürlich ob der exakt gleichen Inhalte gegenseitig den Rang ablaufen.

Der SEO hat nun zu prüfen, ob auf einer Website DC auftreten kann. Ist dies der Fall, sollte er auch durch entsprechende Eingriffe sicherstellen können, dass diese doppelten Inhalte abgestellt werden. Ob dies nun durch ein Erzwingen von HTTPS erfolgt, durch ein URL-Rewrite, durch 301-Weiterleitungen in der HTACCESS oder durch ein unterstützendes Canonical-Tag im Quelltext der Seite ist zunächst nebensächlich. Wichtig ist, dass der Optimierer die entsprechenden Kenntnisse besitzt, um dieses Problem zu beseitigen.

Strukturierte Daten und JSON

Eine Suchmaschine ist in der Regel sehr gut darin, den Inhalt einer Website zu verstehen und entsprechend einzuordnen. Und die immer fortschrittlicheren Algorithmen der großen Betreiber werden immer besser darin, den Sinn und den Kontext von Inhalten zu begreifen. Allein Google hat in seine Algorithmen im Jahr 2016 etwa 1600 Änderungen eingepflegt. Dennoch gibt es Fälle, in denen Websitebetreiber die Maschinen unterstützen können, indem sie ihnen noch präzisere Informationen zukommen lassen. Dies sollte in einer Form geschehen, die für uns Menschen verständlich und für Maschinen lesbar ist.

Das Stichwort hier ist „strukturierte Daten“. Mit Hilfe dieser zusätzlichen Informationen kann – neben vielen anderen Dingen – eine Website, ein Unternehmen oder ein Artikel genauer beschrieben und mit ergänzenden Informationen beschrieben werden. Die modernste und von Google ausdrücklich bevorzugte Form strukturierter Daten wird als JSON-Code in der Website hinterlegt. Im Grunde handelt es sich dabei um Eigenschaft-Wert-Paare, die in einer Art Javascript-Syntax niedergeschrieben werden. Prinzipiell ist die Notation und Implementierung von JSON-LD (LD steht für „linked data“) sehr einfach und durch entsprechende online verfügbare Werkzeuge wie den JSON-Editor auch für weniger bewanderte SEOs leicht umzusetzen. Für diesen Artikel würden diese Daten etwa so aussehen:

{ 
 "@context": "http://schema.org", 
 "@type": "Article",
 "headline": "Ran an den Code - Technisches SEO",
 "alternativeHeadline": "Alternative Überschrift",
 "image": {
 "@type": "ImageObject",
 "url": "https://www.wockenfoth.de/code-1839406640.jpg",
 "height": 427,
 "width": 640 
 },
 "mainEntityOfPage": {
 "@type": "WebPage",
 "@id": "https://www.wockenfoth.de"
 }, 
 "author": "Klaus Wockenfoth", 
 "genre": "search engine optimization", 
 "keywords": "seo, technisches seo, json", 
 "wordcount": "1234",
 "publisher": {
 "@type": "Organization",
 "name": "SEOmania"
 } ,
 "url": "https://www.wockenfoth.de/ran-an-den-code-technisches-seo/",
 "datePublished": "2017-05-11",
 "dateCreated": "2017-05-10",
 "dateModified": "2017-05-11",
 "description": "SEOmania Artikel über technische SEO",
 "articleBody": "Hier könnte der gesamte Artikeltext stehen ..."
 }

Dieser Block erhebt selbstverständlich keinen Anspruch auf Vollständigkeit der Daten. In Der Tat fehlen hier ein paar Angaben, um den Code fehlerfrei und valide zu machen. Allerdings dient dieses Beispiel lediglich als Anschauungsmaterial, was JSON-LD ist und wie es aufgebaut ist. 
Habt ihr für eure Objekte den entsprechenden Code aufgebaut, könnt ihr diesen im Testtool für strukturierte Daten prüfen. Dieses von Google bereitgestellte Werkzeug prüft entweder eine URL oder ein Code-Snippet und zeigt euch Fehler und Warnungen an, falls es welche gibt.

Die Basis für strukturierte Daten ist übrigens schema.org. Dieses Projekt entwickelt sozusagen das Vokabular bzw. Muster, wie verschiedene Dinge mit maschinenlesbaren Daten beschrieben werden können. Beachtet bitte, dass die verschiedenen Suchmaschinen weder die gleichen Angaben interpretieren noch alle die möglich sind. 

Crawling und Indexierbarkeit

Wie bereits erwähnt, sollte eine Website natürlich in erster Linie für die Nutzer erstellt werden. Dennoch muss sich auch eine Suchmaschine auf der Seite zurecht finden können. Sowohl der Websitebetreiber als auch der SEO müssen sicherstellen, dass alle Ressourcen der Website durch die Suchmaschinen erreichbar sind und vollständig gelesen werden können. Allein bei diesem Punkt können bereits Fallen lauern.

Wahrscheinlich im Zuge eines fehlinterpretierten Sicherheitsempfindens und im guten Glauben etwas Sinnvolles zu tun blockieren manche Webentwickler Teile einer Website wie etwa Javascript- und CSS-Dateien. Allein Google hat jedoch bereits mehrfach betont, dass dies durchaus nicht empfehlenswert ist. Bei der Indexierung rendert der Indexer jede einzelne Seite. Dies bedeutet, dass die Suchmaschine eine Seite so darzustellen versucht, wie es auch ein normaler Webbrowser tut. Wenn nun einzelne Teile der Seite nicht geladen werden können, ist für Google keine eindeutige Struktur der Seite erkennbar. Vor allem, wenn es um die Bewertung der Mobilfreundlichkeit der Website geht, ist dies äußerst hinderlich.

Google weiß, wie eure Website aussieht

Allerdings existiert auch ein „Page Layout Algorithmus“, mit dem bestimmt wird, welcher Content sich an welcher Stelle auf einer Website befindet. So lässt sich etwa eine Aussage darüber treffen, welche Elemente einer Website sich im Bereich befinden, der nach dem Laden der Seite als erstes angezeigt wird, also im sogenannten Bereich „above the fold“. Dieser Algorithmus kann natürlich nur dann seine volle Leistung entfalten, wenn die Seite vollständig gerendert werden kann. Dazu müssen jedoch sämtliche Stylesheets und Scripte für die Suchmaschine zugänglich sein.

In einem Kommentar zur Aktualisierung seiner Webmaster Guidelines sagt Google recht eindeutig

Disallowing crawling of Javascript or CSS files in your site’s robots.txt directly harms how well our algorithms render and index your content and can result in suboptimal rankings.

Es ist also essentiell, dass die Suchmaschine eure Website vollständig lesen und verstehen kann.
Problematisch können in diesem Zusammenhang auch Konstrukte auf der Seite selbst sein, wie z.B. Akkordeons, mit denen Teile der Inhalte in aufklappbaren Bereichen dargestellt werden. In manchen Fällen kann die Suchmaschine die darin liegenden Teile nicht oder nicht vollständig erkennen und indexiert sie demnach auch nicht. In jedem Falle jedoch sind Inhalte, die zu Beginn auf einer Website versteckt sind, für die Suchmaschine von geringerer Bedeutung und werden auch so behandelt. Als Faustregel gilt: ideal für Suchmaschine ist alles, was ohne eine Benutzerinteraktion zu sehen ist. Wenn ihr testen wollt, wie beispielsweise Google eure Seite wahrnimmt, nutzt einfach das „Fetch & Render“ Werkzeug aus der Search Console, welches ihr unter dem Menüpunkt „Abruf wie durch Google“ findet.

Um jedoch solche Probleme zu erkennen UND zu beheben, bedarf es einiger Kenntnisse in der Programmierung von Webseiten, in diesem Falle wahrscheinlich häufig Javascript. Wenn der Fehler in der robots.txt liegt, sollte ein SEO dies ebenfalls erkennen und beseitigen. In jedem Falle kommt auch hier wieder die Notwendigkeit gewissen Voraussetzungen ins Spiel, die jeder SEO mitbringen sollte.

Auch die Struktur der Website zählt

Zu einer gut indexierbaren Website gehört auch ein logischer Aufbau und eine nachvollziehbare Struktur. Idealerweise ähnelt eine durchschnittliche Website in ihrer Struktur einem Baum, mit der Startseite als Wurzel. Von dieser Seite aus verzweigen sich dann die Inhalte. Je wichtiger – oder allgemeiner – ein Inhalt ist, desto näher sollte er an der Wurzel liegen.

Wichtig ist, dass alle Unterseiten, die im Index einer Suchmaschine landen sollen, auch von der Suchmaschine gefunden werden können. Dies bedeutet, dass eure Website eine ordentlich geplante und durchdachte Linkstruktur aufweisen sollte. Man spricht hier auch von einer internen Verlinkung, die mithin für die Suchmaschinenoptimierung die gleiche Bedeutung hat wie externe Links auf eure Seite. Sorgt dafür, dass eine einzelne Unterseite nicht zu viele Links hat. Verweist von der Startseite lediglich auf die Unterseiten der nächst niedrigeren Kategorie und macht dann von diesen Seiten aus weiter. Nutzt bitte bei internen Links nicht immer das selbe Wort als Linktext. Das sieht nicht nur merkwürdig aus, sondern kann durchaus auch von den Suchmaschinen als Täuschungsversuch missverstanden werden. 

Der Relaunch – ein besonderes Abenteuer für den SEO

An einem bestimmten Punkt ist es immer Zeit, sich von einer Website zu verabschieden und eine neue Version online zu stellen. Vielleicht ist die alte Seite einfach ein wenig in die Jahre gekommen und eine Modernisierung wäre wahrscheinlich teurer als ein vollständiger Neubau. Wenn dies der Fall ist, beginnt für den SEO ein ganz besonderes Abenteuer: der Relaunch.

Was sich harmlos anhört, kann bei falscher Herangehensweise fatale Folgen für die Sichtbarkeit und die Besucherzahlen einer Website haben. Insbesondere wird dies der Fall sein, wenn A) die neue Website vor dem Start nicht technisch und inhaltlich geprüft wurde und B) sich die URL- und Seitenstruktur ändert. Während ein solides SEO-Audit einer neuen Website eigentlich selbstverständlich sein sollte, laufen Relaunches oft schief, weil alle Inhalte plötzlich unter anderen Adressen aufrufbar sind. Dies passiert gerne bei einem Wechsel des CMS oder wenn eine bisher handprogrammierte Website nun auf einem solchen laufen soll.

Das Problem: die Suchmaschine kennt die URLs einer Website. Wenn sich diese nun ändern, erfährt die Suchmaschine zunächst nichts davon und schickt die Besucher weiterhin auf die alten Adressen, die nun nicht mehr existieren. 
Die Suchmaschine wird die Seite crawlen. Dies tut sie anhand der URLs, die ihr bekannt sind. Alle diese Ziele enden jedoch im nichts und die Suchmaschine muss erst verstehen, was geschehen ist. Alte URLs im Index müssen gegen neue getauscht werden. Aber technisch gesehen hat es die Suchmaschine mit einer neuen Seite zu tun und wir auch genau so mit ihr verfahren. In der Folge wird die Seite aufgrund der vielen fehlerhaften Adressen, der ins Leere laufenden Links und „neuer“ Inhalte niedriger eingestuft. Die Sichtbarkeit sinkt und die Besucherzahlen ebenfalls.

301 – Die Zahl der SEOs

Es gibt jedoch glücklicherweise einen Weg, um der Suchmaschine zu sagen, was geschehen ist und dass sich die Inhalte immer noch an Ort und Stelle befinden. Die Lösung heisst „301 Weiterleitung“ und der Ort des Geschehens ist – im Falle eines Apache Webservers – die HTACCESS-Datei. Dort trägt der mit technischem Grundwissen bewaffnete SEO sämtliche Änderungen ein. Die Suchmaschinen werden eine Anfrage an die alte URL stellen und bekommen vom Webserver die Information in Form eines Statuscode 301, dass die Inhalte nun unter einer neuen Adresse zu finden sind. Dies kann zwar immer noch zu Einbußen in der Sichtbarkeit und den Besucherzahlen führen (was bei einem Relaunch in der Regel normal ist), aber es wird nicht in einer völligen Katastrophe enden.

SEOs brauchen technisches Grundwissen

Mit Sicherheit deckt dieser Artikel nicht alle Bereiche ab, in denen sich SEOs technisch vergnügen können. Doch er gibt mindestens einen Überblick, in welchen Bereichen ein gewisses Grundwissen erforderlich ist. Dies führt unweigerlich zu meiner Forderung, dass ein SEO mehr sein muss als ein Theoretiker oder ein Seitentitel-Änderungsassistent. Suchmaschinenoptimierung besteht nicht nur aus dem Anpassen von Titel, Überschrift und H1. SEO ist eine umfassende und fortlaufende Optimierung einer Website, sowohl inhaltlich als auch technisch. Der SEO muss wenigstens grundlegende Kenntnisse in HTML, CSS und Javascript haben. Er muss im Zweifel auch mal PHP-Code zerpflücken können und sich – mit Hilfe seiner Erfahrungen – durch eine Template-Datei lesen. Der Quelltext von Websites besteht aus Mustern, die immer wiederkehren. Kennt man ein Muster, kann man dieses Muster in jeder beliebigen Website erkennen. Die Suchfunktion eines Editors erledigt dann den Rest.
„Robots.txt“ sollte jedem SEO ebenso ein Begriff sein wie „HTACCESS“ und „Sitemap.xml“. Alle drei Dateien sollte er zumindest lesen und verstehen können. Und idealerweise sollte er diese Dateien bearbeiten können. Wenn er etwas nicht weiß, dann sollte sich ein SEO daran erinnern, was sein Job ist. Wenn jemand weiß, wie man eine Suchmaschine nutzt, dann ein Suchmaschinenoptimierer.

Wenn die technische Basis stimmt, kann sie das Fundament für eine grandiose OnPage-Optimierung sein. Und wenn diese stimmt, kommt der Rest – beinahe – von allein.

Schreibe einen Kommentar