Duplicate Content, also doppelter Content, ist nicht besonders förderlich wenn es ums Thema SEO geht. Zustande kommt dieser z.b. bei WordPress, da Artikel auf verschiedene Arten aufrufbar sind.
- category/Titel-des-Beitrages
- archive/Titel-des-Beitrages
- page/2/Titel-des-Beitrages
Und so weiter. Sprich ein und der selbe Artikel könnte bei Google und Co. mehrfach gelistet werden. Vor allem bei URLs wie page/2/ sollte dies aber vermieten werden, denn die URLs haben nur eine kurze Lebensdauer. Sprich Besucher die über Google kommen, könnten eine 404er Fehlermeldung erhalten, da der Beitrag vielleicht schon auf Seite 3 oder 4 ist. Verbietet sollte man auch den Zugriff auf den Feed. Ausführlichere Informationen zu diesem Thema bei Horst Scheurer und im Google Blog.
Doch was tun? Abhilfe schafft die Datei robots.txt, welche sich im Hauptverzeichnis des FTP Server befinden sollte. An die darin befindlichen Regeln, halten sich die meisten größeren Suchmaschinen (bzw. deren Such Roboter) Doch was sollte man da rein schreiben? Als erste Anregung könnten die robots.txt Datein anderer, größerer Seiten wie YouTube, Google, Smashing Magazine und so weiter dienen. Diese hat nämlich Daniel Scocco übersichtlich zusammen gefasst.
Wer jetzt auf Nummer Sicher gehen will, sollte sich die Anleitung „How to make a WordPress duplicate content safe„. Ein erstes Grundgerüst liefert auch der robtos.txt Generator.
Warum ich diese Links poste? Nun der von Daniel Scocco hat mir den Anlass gegeben. Und irgendwie sollte man die paar Minuten aufwenden.