Für die interne Verlinkung können Sie sowohl relative als auch absolute URLs nutzen. Beide Formen der Verlinkung erfüllen ihren Zweck – jedoch sind mit relativen URLs neben einigen Vorteilen vor allem auch Nachteile verbunden, die sich negativ auf die SEO-Performance Ihre Seite auswirken können.
In diesem Artikel zeigen wir Ihnen diese Probleme auf und liefern die passende Lösung.
Werden in der internen Verlinkung absolute URLs verwendet, so wird die komplette URL aufgeführt:
Bei relativen URLs ist hingegen lediglich der Pfad zum verlinkten Dokument hinterlegt:
Beide Formen lassen sich gleichermaßen zur internen Verlinkung nutzen.
Relative URLs bringen im Vergleich zu absoluten URLs einige Vorteile mit sich:
Aus den oben genannten Gründen ist die Verwendung von relativen URLs in der internen Verlinkung eine herkömmliche Vorgehensweise in der Webentwicklung.
Relative URLs können aber auch negative Effekte erzeugen. Das ist vor allem dann der Fall, wenn unsauber programmiert wurde:
Duplicate Content entsteht dadurch, dass die Domain unter verschiedenen Protokollen (http:// vs https://) oder mit verschiedenen Subdomains (häufig mit und ohne www.) erreichbar sind. Das erzeugt ein massives Indexierung-Hemmnis, falls Google einmal auf die falschen Varianten angestoßen wurde.Das Crawl-Budget wird für URLs aufgebraucht, die gar nicht in den Google Index sollen. Somit findet Google dann im Zweifel nicht die Seiten, die Ihnen eigentlich wichtig sind.Fehlerhafte URLs können generiert werden, falls Google (zurzeit unter dem aktuellen Chrome Browser laufend) die Pfade anders interpretiert, als dies angedacht wurde.
Im Folgenden gehen wir auf diese Faktoren einzeln tiefer ein und auch Möglichkeiten, die nachteiligen Effekte zu reduzieren oder sogar ganz auszuschalten.
Duplicate Content entsteht immer dann, wenn ein und derselbe Inhalt unter verschiedenen URLs zu finden ist. Ist eine Website technisch nicht einwandfrei aufgesetzt, kann es zum Beispiel vorkommen, dass derselbe Inhalt unter folgenden URLs zu finden ist:
http ://www.beispiel.de
https ://www.beispiel.de
http ://beispiel.de
https ://beispiel.de
Die Gefahr, dass eine Nicht-Standardversion der Website komplett gecrawlt und indexiert wird, wird durch die Verwendung von relativen URLs erhöht. Stellen Sie sich vor, Ihre Standardversion, die Sie indexiert haben möchten, ist www .beispiel.de/.
Gelangt der Crawler beim Crawlen des Webs nun aber auf eine URL der Domain http ://beispiel.de und folgt hier den internen relativen Links, so bleibt er zwangsläufig die ganze Zeit auf der Nicht-Standardversion – eben weil zu den verschiedenen Unterseiten nur der Pfad hinterlegt ist und keine absolute URL.
Wären in den internen Links hingegen absolute URLs hinterlegt, so würde der Crawler automatisch auf die Standardversion der Domain gelangen, sowie er dem ersten internen Link folgt. Das Risiko, dass eine Nicht-Standardversion komplett gecrawlt und indexiert wird, ist bei relativen URLs also viel höher.
Das Problem dabei: In diesem Fall liegt es bei Google, herauszufinden, welche der vier Versionen die Standardversion ist, die indexiert und von den Nutzern gefunden werden soll. Es besteht also die Gefahr, dass die Suchmaschine eine andere als die von Ihnen als Standardversion wahrgenommene Seite indexiert.
Idealerweise ist eine automatische Weiterleitung ("redirect") auf die korrekte dieser vier Varianten. Diese wird serverseitig definiert und soll bei den drei falschen Varianten greifen. Die Einstellung selbst ist für technisch affine Menschen sehr schnell erledigt, allerdings sollte getestet werden, ob alle Komponenten (z. B. interne Suche, Extensions und Plug-Ins, eingebundene Formulare, ...) auch nach der Einrichtung weiter funktionieren. In der Praxis ist diese Einstellung häufig nicht vorgenommen, sodass alle vier Varianten erreichbar sind.
Viel schlimmer ist jedoch die Verschwendung von wertvollem Crawl-Budget. Google definiert für jede Website ein gewisses Crawl-Budget, das unter anderem von der Autorität und der Komplexität der Seite abhängt sowie davon, wie häufig neue Inhalte veröffentlicht werden. Das Crawl-Budget legt wiederum fest, wie viele Seiten der Domain tatsächlich vom Suchmaschinen-Crawler ausgelesen werden und dementsprechend in den Index gelangen können.
Ist jeder Inhalt unter verschiedenen URLs erreichbar, so müsste die Suchmaschine viel mehr Crawl-Budget aufwenden, um alle URLs zu crawlen. Da es aber kein unbegrenztes Crawl-Budget gibt, besteht die Gefahr, dass derselbe Inhalt mehrfach ausgelesen wird (unter verschiedenen URLs), während andere wichtige URLs überhaut nicht gecrawlt werden.
Ist bereits die obige Lösung der automatischen Weiterleitung implementiert, ist hier wenig zu tun. Für große Seiten empfiehlt es sich, über die Logfiles zu prüfen, ob der Crawler - trotz eingerichteter Weiterleitung - nicht doch noch alte Varianten besucht.
Leider finden wir neben den obigen beiden Fehlern oft einen weiteren vor, der vorwiegend durch unsauberes Arbeiten entsteht. Wird keine "Base-URL" festgelegt, obliegt es jedem Programm selbst, wie er die jeweiligen Links interpretiert.
Beispiel: Ist der Nutzer zurzeit auf folgender URL:
https :// www.beispiel.de/kategorie1/
Könnte ein relativer URL-Pfad wie folgt lauten:
<a ahref="/produkt1.html">
Daraus wird, wenn keine weitere Spezifizierung vorgenommen ist, einer der beiden URLs:
https ://www.beispiel.de/kategorie1/produkt1.html
https ://www.beispiel.de/produkt1.html
Von einer einmal falschen URL kann sich der Crawler dann, da er bereits auf der falschen Spur ist, durch die weiteren relativen Angaben stark verrennen. Wir haben schon Seiten gesehen, bei denen die Anzahl falsch gecrawlter URLs ein Vielfaches der korrekten Seitenzahl darstellte.
Ob die eigene Domain von einer Fehlinterpretation betroffen ist, kann in der Google Search Console eingesehen werden. Unter dem Menüpunkt "Abdeckung" ist unter anderem die Eigenschaft "Duplikat - vom Nutzer nicht als kanonisch festgelegt" hinterlegt.
Die Behandlung dieses Fehlers sollte im ersten Schritt durch das HTML Base Element erfolgen. Das ist häufig eine Angabe, die im Vergleich zur nächsten Option einfach und relativ fehlerfrei eingefügt werden kann.
Ergänzend kann ein Canonical angewendet werden. Allerdings ist die seitenweite Implementierung häufig Fehlerbehaftet. Insbesondere bei Erweiterungen wie beispielsweise News oder automatisch generierten Job-Bereichen ist die Angabe nicht immer korrekt. Ungetestet kämen also weitere Fehler hinzu. Allerdings hat ein korrekt eingerichtetes Canonical auch bei anderen technischen SEO-Fehlern einen positiven Effekt.
Es gibt Scraper, die die Inhalte fremder Domains auf eine neue Domain kopieren. Meist ist das Ziel, mit wenig Aufwand gute Rankings zu erzielen und dann über Werbeschaltung Geld zu verdienen.
Nutzen Sie relative Links für die interne Verlinkung, so machen Sie es Scrapern unnötig leicht: Die internen Links würden auch auf der gescrapten Version einwandfrei funktionieren.
Absolute Links müssen erst für die Scraper-Seite ausgetauscht werden. Das geht recht schnell, da einfach nur seitenweit der Domain-Name ausgetauscht werden muss. Ein paar der Scraper machen sich diese (sehr geringe) Mühe jedoch nicht. Durch absolute URLs erreichen Sie also zumindest, dass nicht jede Scraper-Domain funktioniert.
Tipp: Melden Sie Scraper-Seiten direkt bei Google als Webspam unter https://support.google.com/webmasters/answer/93713?hl=de.
Was können Sie tun, um diese Probleme zu lösen?
Google ist mittlerweile schon recht gut darin, bei Duplicate Content herauszufinden, welches die eigentliche Standardversion ist, die indexiert werden soll. Nichtsdestotrotz sollten Sie Duplicate Content allein schon im Hinblick auf das Crawl-Budget vermeiden. Relative Links sind immer mit Vorsicht zu genießen. Setzen Sie daher nach Möglichkeit immer auf absolute URLs in Ihren internen Links, insofern keine Gründe dagegen sprechen.