Einzelne Seiten per robots.txt ausschliessen

Moin, Moin, ich möchte gerne bestimmte Shopseiten per robots.txt von der Indexierung ausschliessen. Da es dabei kein „trial and error“ gibt (den error merkt man erst viel später) schreibe ich hier mal wie ich das machen möchte und bitte um Bestätigung bzw. Korrektur. Zum Beispiel möchte ich die AGB-Seite ausschließen. Dann müsste ich in frontend/robots_txt/index.tpl folgenden Eintrag machen: {extends file='parent:frontend/robots\_txt/index.tpl'} {block name="frontend\_robots\_txt\_disallows" append} Disallow: /agb {/block} Ist das so richtig? Und hat es irgendwelche Nachteile, die AGB ausszuschliessen? Ich halte es nicht für erstrebenswert mit irgendwelchen Rechtstexten gefunden zu werden. Viele Grüße

ja, falls google deine AGB Seite aber bereits im Index hat, dann in den WMT einfach diese Seite entfernen.

Danke für die Bestätigung und für den Tipp. Hat google noch nicht im Index - habe die Seite ja noch gar nicht online.