Verständnisfrage zur robots.txt

Hallo zusammen, ich habe Verständnisfragen zur robots.txt: Warum steht dort disallow: /listing drin? Und warum steht dort nicht disallow: /search drin? Das listing bezieht sich doch auf die Kategorieseiten. Sollen/dürfen diese nicht in Google aufgenommen werden? Und Suchanfragen und -treffer sollten hingegen auf gar keinen Fall in Google erscheinen. Ich bitte um Aufklärung. Vielen Dank im Voraus! Grüße Mathias

Also bei mir steht folgendes drin: Disallow: {url controller=listing fullPath=false} Bei Google werden die Seiten aber gecrawlt. Vielleicht erklärt das eventuell das schlechte Ranking seit ich auf Shopware umgestiegen bin?!

Ich würde von Shopware jetzt schon gerne wissen, ob dieser Eintrag in der robots.txt seine Richtigkeit hat oder ob er fehl am Platz ist. Genauso ob der Eintrag der Suchergebnisse nicht als Disallow hinein sollte.

Hi zusammen, die Angaben in der robots.txt passen soweit. Es macht aber auch oft Sinn, wenn man diese auf seine Bedürfnisse anpasst. Zum Beispiel „/listing“: Damit werden nur alle Hersteller-Links ohne SEO-Url geblockt, da Google nur auf den Link und nicht auf den Controller prüft. Und „/search“ könnte man jetzt noch hinzufügen, aber die Suche wird eh schon mit diesem Meta-Tag vor Suchmaschienen geschützt: Gruß Heiner

1 „Gefällt mir“

Danke! Klar, das ist logisch :oops: