Robots.txt => Warum disallow bei /listing?

Hi Leute,

warum genau setzt SW in der Standard robots.txt das /listing auf Disallow?

Die Google Search Console meckert bei mir, weil ich z.B. Seiten wie https://www.mein-shop.de/kategorie1?p=2 nicht indexieren kann. Aber https://www.mein-shop.de/kategorie1 wird indexiert. Fehlt da jetzt nicht etwas? Wäre es nicht für den Googlebot besser alle Produkt Listings vollständig crawlen zu können?

Danke !!