Seitenhierarchie
Zum Ende der Metadaten springen
Zum Anfang der Metadaten

Einleitung

 

Erklärungen zu SEO

 SEO Wording
SEO Wording
  
SERPSERP ist die englische Abkürzung für Search Engine Result Pages. Auf den SERPs von Suchmaschinen werden die Suchergebnisse aufgelistet. Dabei werden sie der Relevanz nach absteigend angeordnet. Die Rangordnung wird durch die Suchmaschinenanbieter durch viele verschiedene Faktoren berechnet und kann durch die Änderung der Suchalgorithmen wechseln. Regelmäßig kann es dabei auch zum sogenannten Google Google Everflux-Effekt kommen. Suchmaschinenprovider halten die Algorithmen geheim, welche die Rankings in den SERPs bestimmen, um Spam zu verhindern.
  
  
 SEO URL

Eine SEO URL (einstellbar unter URL-Routing) ist im SEO-Bereich sehr wichtig. Bietet aber auch Nachteile. Hinter SEO-URL (Beispiel: http://www.example.de/shop/blusen/) befinden sich die Parameter, die zum Aufruf der richtigen Seite benötigt werden. Die URL mit den Parametern könnten durchaus auch aufgerufen werden, was mit sich führen kann, dass ein sogenannter Double Content (oder auch Duplicate Content) entsteht, was bei Google keineswegs beliebt ist.

 Platzhalter im Titel Tag

Im Titel können auch Platzhalter verwendet werden.

Wenn RegEx verwendet werden.

Stehen die Platzhalter der Gruppen auch im Titel zu Verfügung.
In diesem Beispiel wäre dann der Titel "A.S.98 men shoes buy online | A.S.98 Shop".

Um den ersten Buchstaben des Worts im Platzhalter groß schreiben zu können wird "::UCFIRST" unterstützt.

Damit sind auch solche Titel möglich "A.S.98 Herren Schuhe online kaufen | A.S.98 Shop". 

 Mandantenspezifische Platzhalter

Das Plugin content.placeholder erstellt Platzhalter die auch in den URL-Routings verwendet werden können.

Beispiel bei Airstep:

Auf der Startseite sollte noch "Airstep" Im Titel ergänzt werden.

Hierzu wurde ein content.palceholder auf Mandant AS98 eingeschränkt.

 Im Url Routing dann wie folgt verwenden:

Dieser Platzhalter muss auch bei den anderen Mandanten definiert werden ansonsten wird er nicht ersetzt und es bleibt #META_PREFIX# im Quelltext stehen.
Wenn dieser leer sein soll bei anderen Mandanten muss dieser auch leer definiert werden. 

 Double Content / Duplicate Content
Mit oder ohne www?

Es ist angenehm, wenn man eine Webseite sowohl mit "example.de" als auch mit "www.example.de" aufrufen kann. Es sind immerhin vier Zeichen weniger zu tippen. Funktionieren beide URLs problemlos, kann es aus Sicht von Google zu einem Double Content führen, auch wenn beide URL-Aufrufe eigentlich auf die gleiche Seite führen. Google möchte natürlich verhindern, dass zu viele URLs aufgenommen werden. Google nimmt allerdings nur einmal eine Domain auf. Auch die Unterseiten haben dann mit "example.de" und "www.example.de" eine doppelte URL. Dieser Effekt führt dazu, dass generell der "Linkpower" schlechter verteilt wird.

Ein weiteres Problem entsteht in Verbindung mit Printmedien. Google könnte die Seite mit "example.de" in ihre Suchergebnisse aufnehmen, während allerdings die URL auf Visitenkarten, Briefpapier etc. mit "www.example.de" angegeben wurde.

 

Druckversionen und Versionen für mobile Geräte

Für Druckversionen ist es aus der Sicht der Usability sinnvoll, eine gesonderte Druckversion bereitzustellen, da eine normale HTML-Seite in der Regel Elemente enthält, die keine für den Ausdruck nützliche Informationen zur Verfügung stellen, z. B. Navigation, Footer etc. Da diese Seite irgendwie aufrufbar sein muss, besitzt sie eine eigene URL, was allerdings mit sich führt, dass sie den gleichen Inhalt hat wie die normale Seite, so dass hier ebenfalls eine Duplicate Content Situation entsteht.

Eine mobile Version der Seite muss vom Smartphone bzw. Tablet ebenfalls aufgerufen werden können. Arbeitet man hier nicht mit Responsive Design, benötigt die mobile Version ebenfalls eine eigene URL, die durch den gleichen Inhalt erneut dazu führt, dass hier eine Duplicate Content Situation entsteht.

 

Navigationsstrukturen

Gerade bei Webshops ein Problem: Eine Zielseite ist über mehrere Kategorien zu erreichen. Dies nennt man mehrdimensionale Navigationsstruktur. Die Einteilung in hierarchische Kategorien, wobei untergeordnete Kategorien zu verschiedenen Oberkategorien zugeordnet sind, nennt man im Englischen auch "faceted navigation".

Der Hauptgedanke bei dieser Navigation ist die Usability, die im Vordergrund steht. Die Seidenbluse ist verschiedenen Kategorien zugeordnet und sollte so auch auf den verschiedenen Kategorieseiten gelistet werden. Nachteil: Gleicher Inhalt, unterschiedliche URLs = Duplicate Content.

 

Parameterübergaben

Nach der Angabe des Pfades, welcher durch ein Fragezeichen eingeleitet wird, können einer URL Parameter übergeben werden. Die URLs mit gleichen Pfaden, aber unterschiedlichen Parametern werden wiederum von den Suchmaschinen als eigenständige URL gewertet. Die Parameterübergabe macht Sinn, wenn der angezeigte Inhalt dynamisch aus einer Datenbank geladen und durch einen ID-Parameter identifiziert wurde.

Allerdings werden die Parameter auch zu anderen Zwecken genutzt, wie z. B. zur Identifizierung einer Session. An jeden internen Link auf einer Webseite wird dabei die Session-ID gehängt. Dadurch entstehen unterschiedliche URLs, die aber zum gleichen Inhalt führen, wodurch Duplicate Content entsteht:

 

Redundante Informationen in URLs [1]

Die vorgestellte Lösung zur Optimierung der URL Strukturen mittels redundanten Informationen hatte das Problem, dass eine Seite über mehrere URLs zugreifbar war. Auch das führt dazu, dass Duplicate Content entsteht, denn der gleiche Seiteninhalt ist über verschiedene URLs aufrufbar.

 Meta Tags

Meta Tags werden innerhalb des <head> Bereichs definiert und bieten eine zusätzliche Information zur Seite. Für Google haben allerdings die meisten Meta Tags keinerlei Bedeutung. Dies kann man auch auf Google selbst nachlesen bzw. hören. Allgemeine Informationen zu Meta Tags erhält man auch auf SelfHTML.

 

Meta Description:

Der Meta Tag Description dient zu einer kurzen Zusammenfassung für den Inhalt einer Seite und sollte für jede Seite einer Domain einzigartig sein. Dieser Tag hat laut dem Google Webmaster Central Blogpost Google does not use the keywords meta tag in web ranking keinen Einfluss auf das Ranking einer Webseite, wird aber manchmal als Beschreibungsteil bei den Suchergebnissen genutzt. Für die Generierung des Beschreibungsteils in den Suchergebnissen gibt es allerdings keine Garantie, da Google den Text der Suchanfrage anpasst.

 

Keywords

Auch der Meta Tag Keywords hat keinen Einfluss auf das Ranking einer Webseite in den SERPs und hat auch sonst keinerlei Bedeutung für Google. Er wird nur erwähnt, weil es ein weit verbreitetes Gerücht ist, dass dieser Tag das Ranking einer Seite beeinflussen kann.

Links:

 Umleitungen / Redirect
Umleitungen / Redirect
   
301Moved PermanentlyURL wird permanent umgeleitet
302FoundURL wird nur temporär umgeleitet

Es wird empfohlen den 301 Redircet zu verwenden für Seiten die ständig auf eine andere Seite umleiten.
Die Redirects auf der alvine und auf der online Seite sollten somit immer auf permanent stehen

Prüfen kann man das zum Beispiel auf http://web-sniffer.net/

Quellen:

 

 Sitemap
Sitemap

Eine Sitemap ist eine Datei, in der Sie die einzelnen Webseiten Ihrer Website auflisten können.
So lassen Sie Google und andere Suchmaschinen wissen, wie die Inhalte Ihrer Website strukturiert sind. Suchmaschinen-Webcrawler wie der Googlebot lesen diese Datei, um Ihre Website intelligenter crawlen zu können.

Mit dem CMD 5140 wird die XML erzeugt

Wenn nicht alle gewünschten Seiten in der XML auftauchen kann über die Konfiguration der Tiefe in der config.inc.php angepasst werden.

$cfg['content']['site']['maxDepth']=6; // Maximale Tiefe beim crawlen von URLs

Quellen:

Lösungsansätze 

 Double Content / Duplicate Content
Möglichkeit 1: NOINDEX-Meta Tag

Mit dem NOINDEX-Meta Tag wird einer Suchmaschine signalisiert, dass die damit ausgezeichnete Seite nicht in den Suchindex aufgenommen werden soll. Vorteil: Mit diesen Meta Tags teilt man der Suchmaschine mit, dass sie nicht selbstständig eine Seite ausgewählt wird, die in den SERPs [2] angezeigt wird. Nachteil: Die Anwendung dieses Meta Tags missachtet die Link Konsolidierung. Gerade bei dem durch verschiedene Navigationsstrukturen entstehenden Duplicate Content kann es möglich sein, dass auf verschiedene URLs von außen verlinkt wird. Die damit geteilte Linkpower wäre somit verschwendet.

Fazit: Der Einsatz dieses Tags zur Vermeidung von Duplicate Content ist auf diejenigen Bereiche beschränkt, die niemals von außen verlinkt werden. Da dies aber nicht zu 100% ausgeschlossen werden kann, ist die Verwendung des Canonical Tags vorzuziehen.


Möglichkeit 2: Canonical Tags

Der Canonical Tag adressiert Duplicate Content Probleme. Der Tag wird im <head>-Bereich einer HTML Seite genannt und hat folgende im Quellcodeausschnitt vorgestellte Syntax:

Canonical Tag
<link rel="canonical" href="http://www.example.de/canonical-target" />

Dieser Tag wird auf der Seite eingesetzt, die nicht in den Suchmaschinenergebnissen auftauchen soll und enthält als href-Attribut die URL, die im Ranking angezeigt werden soll. Die Wirkung ist im Prinzip der gleiche Effekt wie bei der Verwendung des NOINDEX-Meta Tags (Die Seite taucht nicht im Index auf und es entsteht somit auch kein Duplicate Content), wobei jedoch Ankertext und PageRank mit einem geringen Malus [3] an das kanonikalisierte Ziel übergeben werden.

Der Einsatz dieses Tags bietet sich für alle Duplicate Content Probleme an, bei denen verschiedenen Inhalte zwingend über eigene URLs erreichbar sein müssen, da sie einen eigenen Zweck erfüllen. Er sollte z. B. bei Druckversionen oder Faceted Navigations eingesetzt werden.

 

Möglichkeit 3: 301 Redirects

Die sauberste und eindeutigste Art, Duplicate Content zu bereinigen, ist das Antworten mit einer Weiterleitung, einem sogenannten HTTP Status Code 301 (Moved Permanently) auf den Seiten, die nicht in den SERPs erscheinen sollen. Für diese Weiterleitung wird in der HTTP Header die Anweisung location: mit einer absoluten URL angegeben. Die Ressource wird lokalisiert, an der sich der angeforderte Inhalt befindet. Wie bereits beim Einsatz von Canonical Tags werden Ankertext und PageRank mit einem gewissen Malus an das Ziel der Weiterleitung weitergegeben.

Die Seite leitet weiter und wird daher nicht in den Index aufgenommen, so dass kein Duplicate Content entstehen kann.

Der Einsatz der sogenannten 301 Redirects wird vorrangig zur Bewältigung der mit-oder-ohne-www-Duplicate-Content-Problematik genutzt. Sie eigenen sich vor allem aber auch dann, wenn Inhalte einer alten Domain unter einer Neuen verfügbar gemacht werden sollen.

Für die Behebung der mit-oder-ohne-www-Duplicate-Content-Problematik kann eine .htaccess-Datei eingesetzt werden, die im Root-Verzeichnis des Webspaces abgelegt werden muss und folgenden Inhalt hat:

mit-oder-ohne-www-Duplicate-Content-Problematik
RewriteEngine On
RewriteCond %{HTTP_HOST} !^www\.example\.de$ [NC]
RewriteRule ^(.*)$ http://www.example.de/$1 [R=301,L]

In diesem Fall werden sämtliche Anfragen an die mit-www-Version weitergeleitet. Generell lässt sich ein 301 Redirect auch zum Beispiel mit PHP realisieren, wie dieser Tipp zu PHP Redirects zeigt. Der 301 Redirect ist das erste Mittel um Duplicate Content zu bereinigen.

 

Möglichkeit 4: Einstellungen in den Google Webmaster Tools

 

Die Google Webmaster Tools bieten Einstellungsmöglichkeiten für zwei Duplicate Content Probleme:

  • Erreichbarkeit mit-und-ohne-www
  • Parameter

Diese Einstellungen sind allerdings Google-spezifisch und zählen daher nicht für andere Suchmaschinen und haben zum anderen keine Vorteile gegenüber den oben genannten Möglichkeiten.

 

 

 

Schreiben Sie einen Kommentar...