![]() |
robots.txt
Ich verwalte eine Webseite bei der sich im Laufe der Zeit ziemlich viel Muell angesammelt hat. Leider bin ich gezwungen, ihn dort liegen zu lassen, weil er nicht mir gehoert.
Was ich jetzt gerne moechte ist, dass Suchmaschinen alles bis auf 2 Unterverzeichnisse ignorieren. Als Loesung hab ich mir das so vorgestellt... # robots.txt for http://www.eco-lighthouse.com/ User-agent: * Disallow: / Allow: /english/ Allow: /deutsch/ Das 'Allow' ist zwar nicht definiert, laut SelfHTML wir es aber trotzdem von den meisten Suchmaschinen verwendet. Die Frage ist jetzt, ob ein 'Allow' die vorherigen 'Disallow' ueberschreibt. |
Probier mal den robots.txt validator:
http://www.searchengineworld.com/cgi-bin/robotcheck.cgi |
Zitat:
Code:
FUCK OFF ! Hat hier jetzt einfach rein müssen :rolleyes: |
Alle Zeitangaben in WEZ +2. Es ist jetzt 03:30 Uhr. |
Powered by vBulletin® Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
© 2009 FSL Verlag