WMT Doppelte Title & Description

Hallo, ich weiss, dass das Thema schon mehrmals besprochen wurde, allerdings nicht wie es bei mir auftritt und eine richtige Lösung gibt es dafür auch nicht. Bei mir ist das Problem, dass die Webmastertools 300 doppelte Title und Description melden. Das kommt zustande, da Google die SEO freundlichen und die Standard URLs eines Produktes findet. Beispiel: /damen/hosen/timezone-jeans-damen-capri-talitz-light-blue-used-detail /detail/index/sArticle/1587/sCategory/41 oder /damen/hosen/mac-jeans-carrie-pipe-dark-blue-used-buffy-detail /detail/index/sArticle/1694/sCategory/18 /detail/index/sArticle/1694 Nun ist der Cronjob bei mir so eingestellt, dass die SEO Urls alle 15 Minuten erstellt werden sollen, d.h. diese alten URLs sind relativ schnell weg, bleiben aber dennoch vorhanden. Und über den Canonical ist es auch nicht zu lösen, da man damit auch Google nur die Wahl überlässt, welche URL indexiert wird. Jeman das gleiche Problem, eine Lösung oder eine Idee??:slight_smile:

[quote=“eierund”]Und über den Canonical ist es auch nicht zu lösen, da man damit auch Google nur die Wahl überlässt, welche URL indexiert wird.[/quote] Nein, tut man nicht, ein Canonical ist im Prinzip ein 301 ohne Weiterleitung. Wenn du den Canonical shopweit auf die Startseite einstellst wird Google nur deine Startseite indizieren. Aber natürlich muss auch beim ersten Aufruf von /detail/index/sArticle/1587/sCategory/41 der Canonical bereits /damen/hosen/timezone-jeans-damen-capri-talitz-light-blue-used-detail sein.

Der Canon ist bei neuen Produkte schon richtig gesetzt.

Dann sollte IMHO Google die andere URL auch nicht indizieren. Oder wirft die richtige URL zu dem Zeitpunkt noch einen 404?

Nein, es gibt keinen 404, biede Seiten sind erreichbar. Hat denn sonst niemand das problem mit Shopware? Irgendwie muss man der Sache doch Herr werden können? Ein noindex auf /detail/sArticles… URLs bringt nichts, da die Artikel ja trotz SEO URLs im Grunde daraus bestehen.

Denke, das Problem ist, dass Du die URLs alle 15 min neu erstellst. Übertrieben: bis alle URLs neu erstellt sind, läuft der Cronjob erneut an. Muss das so oft sein? Versuch es mal mit Disallow: /detail/index/ in der robots.txt.