Hi Leute,
warum genau setzt SW in der Standard robots.txt das /listing auf Disallow?
Die Google Search Console meckert bei mir, weil ich z.B. Seiten wie https://www.mein-shop.de/kategorie1?p=2
nicht indexieren kann. Aber https://www.mein-shop.de/kategorie1
wird indexiert. Fehlt da jetzt nicht etwas? Wäre es nicht für den Googlebot besser alle Produkt Listings vollständig crawlen zu können?
Danke !!