Tagging or not, duplicate content oder Fokussierung
Startseite BlogGoogle, Optimierung, SuchmaschinenTagging or not, duplicate content oder Fokussierung

Tagging or not, duplicate content oder Fokussierung

20. Oktober 2007 — Google Optimierung Suchmaschinen
Tags und Duplicate Content

… oder gibt es etwas dazwischen? Im Zuge des Hypes um Weblogs und Web 2.0 kommt nun auch die populäre Blog-Software WordPress (wird auch hier verwendet) serienmäßig ab der Version 2.3 mit Tagging-Funktion. Tags sind Stichwörter oder Schlagwörter, welche man einem Artikel zuweisen kann – parallel oder anstatt den bislang üblichen Kategorien.

Im Folgenden möchte ich aus meiner persönlichen Sicht Tags kurz erläutern sowie deren Vorteile und Risiken beschreiben. Da mich diese Thematik schon lange beschäftigt, wird der Artikel etwas umfangreicher ausfallen, aber natürlich keinen Anspruch auf Vollständigkeit erheben. Eines Vorweg: ich verwende Tags bei manchen Projekten absolut nicht, bei manchen dagegen durchaus gerne und mit Strategie. So richtig glücklich bin ich allerdings nicht immer damit.

Was sind Tags?

Wie bereits eingangs erläutert, kann man mit Tagging jedem Artikel, jeder Seite bestimmte Stichwörter (Tags) zuweisen, diese dann zum jeweiligen Artikel oder generell für die komplette Seite (auch gewichtet) anzeigen lassen. Auf vielen Seiten entdeckt man mittlerweile so genannte TagClouds – also eine Ansammlung (Wolke) von Stichwörtern, meist nach Verwendungshäufigkeit in der Größe abgestuft:
Tagging - eine Tagwolke

Tags aus Suchmaschinensicht

Tagging kann sowohl für Suchmaschinen als auch für Besucher Sinn machen – oder eben auch nicht.

Die Long-Tail-Nischen

Unbestritten kann man mit Tags relativ einfach eine ganze Bandbreite an wichtigen, zusätzlichen (Schlüssel-)Begriffen nutzen, die ansonsten in einer Artikelüberschrift nicht Platz hätten. Das gilt umso mehr, wenn man sich bei den Kategorien auf wenige, übersichtliche beschränken will.
Weiters kann/ soll man für die Tag-Seiten suchmaschinenoptimierte Templates erstellen, so dass Suchmaschinen zu den (vielen) Schlüsselbegriffen je Tag eine darauf optimierte, eigene Seite finden. Im Gegensatz zu den meist (zu) generellen Kategorien ranken manche dieser eher speziellen Tagseiten exzellent und besetzen so zahlreiche Nischen. Die Trefferfläche für Suchmaschinen würde enorm steigen. Mit recht überschaubarem Aufwand käme man damit dem so genannten Long-Tail-Ansatz näher.
So weit so gut.

Duplicate Content – Filtergefahr

Wie vielleicht bemerkt steht im vorletzten Satz „käme“. Denn Tagging bringt auch Nachteile oder zumindest Risiken mit sich.
Denn die so enorm aufgeblähten Seiten lassen sich Google und Co. nicht so einfach als zusätzlichen Inhalt (Stichwort: unique content) unterjubeln. Vor allem muss man aufpassen, dass man nicht Unmengen doppelter Inhalte (duplicate content) erzeugt, den Suchmaschinen allenfalls am Ende der Trefferlisten anzeigen.

Offiziell gibt es von Google zu duplicate content recht wenige Aussagen. Adam Lasnik nennt im Official Google Webmaster Central Blog einige generelle Hinweise und Vanessa Fox meint, dass doppelter Inhalt an sich nicht weiter schädlich ist, nur bloß nicht wirklich rankt. Google filtert doppelt erscheinende Seiten also einfach aus.
Ab wann nun genau doppelte Inhalte vorliegen, ist offiziell nicht bekannt – man kann es also nur testen, analysieren und bewerten.

Wann liegt denn nun duplicate content vor?

Dazu kann man sich das Experiment bei SEOChat anschauen oder als Indiz für die eigene Seiten folgendes Supplemental-Tool nutzen. Denn doppelte Inhalte landen im so genannten supplemental index, früher als ausdrücklich gekennzeichnete zusätzliche Ergebnisse am Ende der Trefferlisten.

Ist duplicate content auch ein Qualitätskriterium?

Beachten sollte man, dass eine hoher Anteil doppelten Inhalts wohl durchaus ein Qualitätskriterium einer Webseite sein dürfte – eventuell auch ein Ansatz, um Missbrauch zu erkennen. Offiziell sieht Google etwa bei Foren die parallele suchmaschinengerechte Version nicht so dramatisch, allerdings zieht Google erfahrungsgemäß generell die Grenze für doppelte Inhalte zunehmend enger, so dass zunehmend schneller bei auch nur teilweiser Übereinstimmung bereits doppelte Inhalte vorliegen. Dies gilt zwar nicht bei wenigen Autoritätsseiten, aber sehr wohl für die Vielzahl an Webseiten. Suchmaschinen versuchen so die Qualität der Ergebnisse zu erhöhen und zugleich (offenbar knappe) Ressourcen zu schonen. Wie Suchmaschinen versuchen doppelte Inhalte zu erkennen, beschreibt beschrieb Fridaynite in seinem Artikel Duplicate Content Strafe vermeiden (offline) recht anschaulich.

Fazit aus Suchmaschinensicht

Wenn man nun auf Tags bezogen doppelte Inhalte vermeiden will, müssen sich die einzelnen Tagseiten möglichst stark von anderen Seiten unterscheiden:

  • Dazu sollte man keine Tags verwenden, die bereits als Kategorien verwendet werden.
  • Auch sollte man individuelle Zusatzinhalte wie verwandte Tags an wichtigen Stellen aufführen. Das dies (noch) hervorragend klappt, zeigt etwa Mister Wong, wobei ein gewisser Autoritätsstatus hier sicher eine Rolle spielt.
  • Auch problematisch ist die Frage nach der Anzahl der verwendeten Tags. So muss man aufpassen, dass nicht ein Großteil nur einmal verwendet wird.

Eine nette Lösung ist, die Tagseiten auf <strong>noindex, follow</strong> zu setzen, damit folgt Google den Links zu den Einzelartikel, gibt auch die Relevanz an diese weiter, zeigt aber die (oft mit doppeltem Inhalt bestückten) Tagseiten nicht als Suchtreffer an.
Der Original Bayerische Seoblogger hat hatte eine ganz anschauliche E-Mail-Diskussion zum Thema duplicate content dazu veröffentlicht. Im Übrigen plädiert Andreas, wenn ich es richtig im Kopf habe, dafür nur auf die Einzelartikel alles Gewicht zu setzen, also alle Kategorien, tags etc. auf noindex, follow zu setzen.
Damit wären doppelte Inhalte soweit unproblematisch und die eigentlichen Inhalte, die Artikel, hätten optimale Power (Fokussierung).

Allerdings geht der Long-Tail-Ansatz verloren, damit für spezielle Nischenwörter zu ranken und Besucher zu erhalten.
So kann man mit Tags ja sehr spezielle Begriffe oder falsche Schreibweisen abdecken.
So könnte man etwa jede Tagseite ab Seite 2 usw. erst auf noindex, follow setzen – und auch ab und zu eine Tagseite direkt von außen verlinken.
So ranken die wichtigen Tags bei Nischenthemen und der Anteil doppelten Inhalts lässt sich bei sorgfältiger Handhabung in natürlichem Rahmen halten.

Tagging aus Besuchersicht

Nicht vergessen sollte man auch die Besuchersicht. Hier spielt natürlich die Zielgruppe eine wesentliche Rolle. Auf Blogs wird eine TagCloud (vgl. oben) sicher die wenigsten Besucher irritieren.
Auch bietet sich eventuell ein guter Zusatznutzen, wenn man mit Tags etwas anderes abdeckt wie mit den Kategorien.

  • Beispielsweise könnte man Produktgruppen mit Kategorien und Hersteller oder Farben mit Tags abbilden.
  • Eurosport-Yahoo nutzt dies beispielsweise, um Sportlernamen mit Tags zu clustern. So hat dann jeder Sportler eine „Tagseite“.

Aufpassen sollte man meines Erachtens, den Besucher nicht zu überfordern. Viele Seiten (auch diese) sind eigentlich überladen. Wenn man nun noch alle Tags auf eine Seite quetscht, wird es regelmäßig der informationelle Overkill. Wenn aber ein Besucher speziell danach sucht, kann man ihm den Klick anbieten und dann auch eine umfangreichere TagCloud präsentieren. Ob diese aber oft benutzt wird, wage ich zu bezweifeln.

Weiterführende Artikel

NETPROFIT Blog

Im Blog schreibt         über CMS, SEO & Webdesign. Kontakt →

Kategorien

Trackback-URL: http://www.netprofit.de/blog/tagging-duplicate-content-fokussierung.html/trackback

10 Kommentare zu Tagging or not, duplicate content oder Fokussierung

Guter und ausführlicher Beitrag zum Thema Tagging. Vor allem wegen DC muss man aber aufpassen.

Gravatar von Klaus - via garvatar.org Klaus →
Kommentar 1
21. Oktober 2007 um 08:35 Uhr

Exakt erkannt. Tag-Seiten sind aus SEO-Sicht absolut tödlich.
Das Beispiel mister-wong hinkt übrigens…die jungs könnten momentan wohl auch mit einer nackten seite ohne inhalt ranken. Noch…

Gravatar von Seoblogger - via garvatar.org Seoblogger →
Kommentar 2
21. Oktober 2007 um 23:49 Uhr

„(…) Das dies (noch) hervorragend klappt, zeigt etwa Mister Wong, wobei ein gewisser Autoritätsstatus hier sicher eine Rolle spielt.(…)“

🙂

Gravatar von Robert - via garvatar.org Robert →
Kommentar 3
22. Oktober 2007 um 00:25 Uhr

Wirklich ein guter ausführlicher Bericht bezüglich Duplicate Content mit Hilfe von Tags, hab da auch noch einen Test laufen, scheinbar stimmen die Erkenntnisse aber zu fast 100%,

Gravatar von Marc - via garvatar.org Marc →
Kommentar 4
10. Dezember 2007 um 12:10 Uhr

die duplicate content Problematik war mir vorher gar nicht bewusst. Danke für die Tipps!

Gravatar von Martin Viehver - via garvatar.org Martin Viehver →
Kommentar 5
17. Dezember 2007 um 17:23 Uhr

Ich habe mir nun auch die ein oder andere Tag-Seite von (alten) Projekten angeschaut und in der Tat könnte das wirklich DC sein.. Das erklärt dann im nachhinein doch das ein oder andere 😉

Gravatar von Martin - via garvatar.org Martin →
Kommentar 6
14. September 2008 um 18:47 Uhr

Das mit den Tag-Seiten leuchtet mir nicht so ein. Wenn Du da den ganzen artikel anzeigst ok – dann ist das ein Problem. Aber wenn Du einen Teasersatz veröffentlichst, wie hier zum Thema Duplicate Content beschrieben, sollte das doch kein Problem sein. BEi manchen Websites frag ich mich auch wie hoch ist der Anteil von Content an der Seite, und wie sehen das die SEs?

Gravatar von Sandra - via garvatar.org Sandra →
Kommentar 7
29. Oktober 2008 um 01:31 Uhr

Nun ja Sandra, leider ist die Sache nicht ganz so einfach und Google differenziert zunehmend bei dieser Frage.
1. Am besten alles außer die Seiten mit den wirklichen Inhalten auf noindex, follow in der robots-Anweisung im head-Bereich. Damit ist man auf der sicheren Seite.
2. Hat man sehr viele Inhalte und will mit Tags, Kategorien etc. Besucher abgreifen, wird es schwierig(er).
Erstens ist eine gewisse Seitenstärke im Sinne von Seriösitätsbonus oder Schwergewicht bei Google wichtig. Denn als schwach verlinkte Seite bekommt man diese Wiederverwerterseiten nicht (mehr) wirklich zum Ranken.
Zweitens muss man auf den Tag- oder Kategorieseiten andere Ausschnitte, Inhalte anbieten als anderswo. Habe ich also auf der Startseite die ersten 50 Wörter, nehme ich auf Tagseiten/ Suchergebnisseiten/ … am besten andere Ausschnitte (wenn möglich den mit dem jeweiligen Tag/ Kategorienamen/ Suchbegriff …). Optimalerweise reichert man diese Tagseiten noch mit einem individuellen Absatz (Beschreibung, Erklärung zum Tag) an.
Sind viele Links auf einer solchen Seite sollte der einzigartige Zusatz umfangreicher ausfallen.

Meine Empfehlung ist also Punkt 1 bei neuen, kleinen Seiten und wenn überhaupt aufwändige und überlegte Tagseiten.

Gravatar von Robert Hartl - via garvatar.org Robert Hartl →
Kommentar 8
29. Oktober 2008 um 01:52 Uhr

Wie ist das mit NICHT VERWENDETEN (Haupt-)Kommentaren (in einem Blog wie WordPress) – Kommentare können ja ihrerseits hierarchisch genutzt werden – so könnte eine „Krücke“ genutzt werden, um für sich selbst zu schauen, welche Kategorie die passende wäre – und über einen Tag dann die allgemeine Zuordnung? Würde dann das „googelnde“ System dennoch ZWEI identische Inhalte erkennen? (Ganz abgesehen davon, dass es einen inhaltlichen Bezug geben sollte, in welchem das jeweilige Wort ja auch vorkommt, aber dazu kenne ich mich zu wenig mit der Programmierung von Suchmaschinenroutinen aus)

Beispiel: Krankheit als (nicht zu verwendene) Kategorie mit den Unterkategorien Masern und Mumps (die dann jeweils durchaus verwendet würden, wo sie zutreffen) und dann zudem als Tag „Krankheit“, „Masern“, „Medikamente“ (oder was auch immer) – das sollte in meiner Vorstellung dazu führen, dass der betreffende Artikel durch das Raster von DC fällt, oder?

Wobei ich schätze, dass die o.g. „Empfehlung“ bei „normalen“ Nutzenden von Blogs ohnehin keine Rolle spielen dürfte, weil solche Personen keinen Einfluss auf den Headbereich nehmen können i.S.v. „setzen auf noindex, follow“ – das aber nur mal am Rande…

Gravatar von Veronika - via garvatar.org Veronika
Kommentar 9
21. Februar 2009 um 22:46 Uhr

Ich persönlich finde den Ansatz alles außer echtem Content/Artikeln auf noindex zu setzen und dem Besucher trotzdem über eine moderate Menge an Tags eine zusätzliche Navigationshilfe zu geben optimal.

Zwar ist die Idee mit den rankenden Tagseiten nicht von der Hand zu weisen, allerdings setzt dieser Ansatz auch eine extreme Menge an Content voraus um nicht zu einzelnen Tags nur ein einziges Ergebnis vorzufinden. Für große Portale oder Social Bookmarking Dienste sicher gut, für die durchschnittliche Seite/den durchschnittlichen Blog aber meist wenig sinnvoll.

Gravatar von Florian Weber - via garvatar.org Florian Weber →
Kommentar 10
12. Februar 2010 um 01:10 Uhr

Kommentar schreiben zu Tagging or not, duplicate content oder Fokussierung

Kommentare werden erst nach manueller Freischaltung sichtbar.

Kommentar

KommentatorIn

(erforderlich)

(erforderlich, wird nicht angezeigt)

(optional)

Theresienstraße 28
D-94032 Passau

Tel.: +49 (0)851/ 966 31-31
Fax: +49 (0)851/ 966 31-41
E-Mail:

©  2001 − 2016  NETPROFIT  | Kontakt | AGB | Datenschutz, Impressum