Doppelter Content ist ja für google ein Graus. Aber das hier habe ich jetzt im Webmastertool von google als mehrfachen Content bei uns gefunden: URL: …/Supplier-AnkerListingLinkNextListingLinkNextListingLinkNextListingLinkNextListingLinkPreviousListingLinkNextListingLinkNextListingLinkNextListingLinkNextListingLinkPreviousListingLinkNextListingLinkPrevious_35.html?sPage=1 Die Seite selber zeigt nur die Überschrift: Zu „AnkerListingLinkNextListingLinkNextListingLinkNextListingLinkNextListingLinkPreviousListingLinkNextListingLinkNextListingLinkNextListingLinkNextListingLinkPreviousListingLinkNextListingLinkPrevious“ wurden 24 Artikel gefunden und besagte 24 Artikel der Marke Anker. Fragt mich nicht, wie google auf diese Suchanfragen/ Filter oder was auch immer kommt. Auf einmal haben wir diese Seite > 100.000 x mit doppeltem INhalt gemeldet bekommen. Hat irgendjemand eine Ahnung, was da passiert ist und wie man das wieder weg bekommt?
Überprüfe doch mal dein Template , speziell auf den Übersichtsseiten (Hersteller etc.), die Blätter-Funktionen. Achte dabei mal auf den title-Tag der Vorwärtsblattern- und Zurückblättern-Links. Evtl. hast du hier den href-Tag title="#ListingLinkPrevious#". Der Title wird bei der alten SEO-Engine benutzt. Diese Angabe ist aber in SW3.5 nicht mehr vorhanden und sollte durch eine Textbaustein o.ä. ersetzt werden.
Vielen Dank erstmal für den Hinweis. Aber das Problem scheint woanders zu liegen. Wir hatten im März komplett auf 3.5.6 umgestellt, und die (stichprobenartig ausgewählten) Templates, die paging nutzen, entsprechen alle dem aktuellen 3.5.6 Download: frontend/listing/listing_actions.tpl frontend/search/paging.tpl frontend/content/paging.tpl Eine Suchanfrage für den Begriff ANKER liefert im Quellcode auch nur: [i]
Blättern:12>
[/i] Warum ist eigentlich der Title von Seite 2 leer? Da wir alle Updates installiert hatten, müsste eine alte Version seit 3.5. bis 3.5.6 schon längst Geschichte sein. Haben wir was übersehen?
Hi, das Thema wurde bereits hier behandelt: allgemeines-f2/crawling-fehler-http-in-webmaster-tools-t5078-10.html#p29331 In den Templates von 3.5.6 sind die Anpassungen auch alle enthalten. Evtl. hattest du ein individuelles Template und Shopware nutzt deine Templates statt den Neuen. In dem Thread sind aber Anpassungen beschrieben.
Habe gem. Anweisung gehandelt die robot.txt allerding erstmal nur für den Supplier Anker gesperrt Disallow: /Supplier-anker wenn das nicht so geht, bitte um Hinweis in der _default/frontend/search/index.tpl ist gar kein title drin, der steckte bei uns in der _default/frontend/search/paging.tpl da haben wir die beiden Title dann aber entfernt Ansonsten haben wir keinerlei Veränderungen in default-Templates gemacht, es liegen aber auch keine Template Änderungen im shop/search vor, also müsste das System komplett auf default zugreifen. dDer Beitrag in allgemeines-f2/crawling-fehler-http-in-webmaster-tools-t5078-10.html#p29331 scheint im April abzubrechen, die Probleme aber von den Teilnehmern nicht gelöst worden zu sein. Wir sind im Moment bei 129.289 Fehlern.:wtf: Das ist schon sehr beunruhigend… Warten wir jetzt mal ab, ob sich jetzt was tut.
Hallo stephan, hasst du das Problem inzwischen beseitigt? Hat die Anweisung in robot.txt Datei etwas gebracht?
[quote=„Sebastian Klöpper“]Hi, das Thema wurde bereits hier behandelt: allgemeines-f2/crawling-fehler-http-in-webmaster-tools-t5078-10.html#p29331 In den Templates von 3.5.6 sind die Anpassungen auch alle enthalten. Evtl. hattest du ein individuelles Template und Shopware nutzt deine Templates statt den Neuen. In dem Thread sind aber Anpassungen beschrieben.[/quote] Das Problem wurde dort behandelt nur leider nicht gelöst. Shop erzeugt massenweise neue Seiten die nicht auffindbar sind.
Mein Problem hat sich nach der Umstellung auf Shopware 4.0 anscheinend erledigt. Ich hatte alle Maßnahmen unter 3.5.6. durchgeführt und nachdem sich bei google gar nichts tat, habe ich die Entwicklung nach ein paar Wochen dann nicht mehr weiter beobachtet. Ein paar Wochen nach 4.0 habe ich dann mal wieder reingeguckt und diese Fehler waren verschwunden. Was da jetzt den Ausschlag für google gegeben hat, kann ich leider nicht sagen.
Ich habe vor 6 Tagen in der robots.txt Datei folgendes eingefügt: Disallow: /Supplier-*/ Seit dem werden keine neuen Fehler mehr erzeugt. Versucht es einfach mal.