in der Search Console werden folgende URL Parameter als Doppelte Meta Beschreibungen und Titles angezeigt:
in den Blogurls wenn man die Blogtags nutzt z.B. kategorie/blogkategorie?sFilterTags=beispieltag
/address/ajaxEditor und /address/ajaxSelection
Newsletter und Kontaktformular habe ich bereits mit der Anweisung „forms“ im SeoRouter ausser Kraft gesetzt. (zusätzlich auch noch die Shopseiten mit einem Plugin auf noindex,follow gesetzt)
Gibt es einen Tipp, wie ich die URLs der Punkte 1 und 2 auch noch vor dem crawlen „schützen“ kann?
Da ich im SeoRouter eingestellt habe, dass paginierter Inhalt nicht eingecrawlt werden soll, nehme ich an, dass das nicht für die Filterurls des Blogs gilt?
Das Problem der Blog URLs mit doppelter Metadescription liegt an den Tags. Wenn ich auf ein Tag klicke, wird eine neue URL, die den Tag beinhaltet erzeugt.
Diese führt ja nun zur Auswahl bzw. den gefilterten Blogartikeln.
Anscheinend indexiert Google diese Filter URLS.
Wenn ich unter Chache/Performance dann unter Einstellungen Seo Index neu aufbauen die Anzahl der Blogurls ansehe, sind das sehr viele URLS. Also so viele, wie ich auch Tags in den einzelnen Blogartikeln angegeben habe.
Für die normalen Produktkategorien kann man das ja im SeoRouter verhindern.
Geht das auch für diese Blogurls irgendwie?
Eine Alternative wäre vermutlich, alle Tags aus den Blogartikeln zu entfernen. Braucht wahrscheinlich eh keiner…
Gäbe es eine Variable, die man im Seo Router eingeben kann, damit die gefilterten Blogurls nicht indexiert werden?
Es müsste so funktionieren, damit ein noindex im header angezeigt wird, dann ist die Meldung in der Searchconsole bald weg:
Bei den SEO-Routereinstellungen unter SEO Noindex Querys hinzufügen: sFilterTags
Danach Cache und Browser-Cache leeren und prüfen.
Am besten erstmal in einer Testumgebung testen.