[Gelöst] Massenhaft Crawling Fehler in Webmaster Tools?!

Hallo, ich habe soeben die Meldung erhalten, dass Google Webmaster Tools massiv Crawling Fehler meldet. Dies betrifft eigenartigerweise aber nur Produkte eines Herstellers. Die gecrawlten URLs sehen auch extrem eigenartig aus. Alle nach folgendem Muster: Supplier-SALUSListingLinkNextListingLinkPreviousListingLinkPreviousListingLinkNextListingLinkNextListingLinkPreviousListingLinkPreviousListingLinkNextListingLinkPreviousListingLinkNext\_27.html?sPage=4 Was ist da schief gegangen… und wie kann ma das beheben? Die Links wurden auch nicht durch externe Verlinkung erzeugt, die betreffenden Produkte sind alle aktiv, aufrufbar und der jeweils richtigen Kategorie zugeordnent. Danke für Eure Hilfe, Tom

Hallo, das Problem besteht leider immer noch. Kann mir hier echt niemand helfen? :frowning: Ich habe keine Idee, woran das liegen könnte… Tom

Da gab es doch schon mal so einen Fall. Hast Du schon mal die Forensuche benutzt? post41038.html?hilit=crawling%20fehler#p41038

Hallo Frank, ich setze Shopware 4.1 ein. Deshalb habe ich bei der Suche auch auf SW 3.x verzichtet. Das ist jetzt noch merkwürdiger, das Problem tritt offensichtlich bei vielen mit SW 3.5 auf. Wie kann das denn jetzt noch sein? Der Pagerank bei Google ist so natürlich für’n A**** Könnte sich jemad vom Team mal der Sache annehemen? Danke, Tom P.S. Wenn ich das richtig sehe, tritt das Problem seit dem Update von SW 4.0.8 auf SW 4.1.0 auf. Hilft diese Info weiter?

Hallo Tom, das Thema wurde in der 3.5er Linie bereits gelöst. Das kam einfach durch Title-Angaben im Link. Der oben genannte Link-Aufbau ist in Shopware 4 gar nicht möglich/verfügbar! Durch Shopware 4 kann das also gar nicht enstanden sein. Zudem werden ab der 4er Version ganz andere Seite / Controller genutzt. Es kann also eigentlich nur sein, dass ein altes Template eingesetzt wird bzw. wurde. Wenn das Template z.B. abgeleitet oder kopiert wurde, so kann u.U. die alte Korrektur vom Update nicht greifen. Dann ist der Fehler also noch im individuellen Template. Aber, wie bereits geschrieben, gibt es diese Art URLs in Shopware 4 gar nicht mehr. Die stammen von der ganz alten SEO-Engine, welche in 3.0 Standard war und in 3.5 noch unterstützt wurde Sebastian

Hallo Sebastian, nun bin ich vollends verwirrt: Google Webmstertools meldet: 328 x Serverfehler: Request timed out or site is blocking Google 507 x Nicht gefunden: [quote]Der Googlebot konnte diese URL nicht crawlen, da keine zugehörige Seite existiert. Im Allgemeinen wirken sich 404-Codes nicht auf die Leistung Ihrer Website bei der Suche aus. Sie können sie jedoch zur Verbesserung der Nutzererfahrung verwenden[/quote] Diese massiven Crawlingfehler treten erst seit dem 13.07.2013 auf. Und das war ein oder zwei Tage nach der Umstellung auf die SW 4.1.0. Der Shop selbst setzt kein altes Template ein und wurde auf version 4.0.6 neu aufgesetzt mit kontinuierlichen Updates bis zur jetzigen Version. Vorher lief der Shop auf Version 3.5.x. Was treibt der Google da? Gruß, Tom

Hi, dann ist ggf. bei der Umstellung was nicht sauber gelaufen… Wie geschrieben ist die oben genannte URL aus 3.5 - Google versucht jetzt ggf. viele Seiten zu finden, die es nicht mehr gibt. Da kann ich nur empfehlen mal im Detail zu schauen, was Google dort bemängelt. Wurde die Sitemap dort definiert und evtl. noch weitere Regeln, so dass Google bestimmte Paramter ausschließt? Evtl. wurde bei der Umstellung auch grundlegend etwas verändert?! Beispielsweise Domain von ohne www. auf mit www. — Das kann also einige Ursachen haben. Die Meldung seitens Google ist mir auf jeden Fall komplett neu Die alten URLs musst du dann wohl manuell dort rausschmeißen. Die Probleme sind also nicht auf Shopware 4 zurückzuführen, sondern eher auf nicht behobene Fehler in der vorherigen Version. Wenn dort das Template individuell war, so hat das Template ggf. von den Anpassungen nicht mitbekommen. Das fällt dann halt erst jetzt auf… Sebastian.

Hallo, das gleiche Problem hatte ich auch beim meinem 3.5.5, aber erst nachdem ich eine vernünftige robots.txt eingesetzt hatte. bei mir waren es über 64.000 Seiten mit diesem „supplierlinknextlisting…“ Bei euch scheint der Auslöser die Umstellung auf die neue Version zu sein in der diese urls wohl nicht mehr generiert werden. Ihr habt also eigentlich nicht jetzt das problem sondern hattet das Problem vorher, das solche nonsensseiten im google index waren. nur jetzt wird es euch erst angezeigt da diese seite nun nicht mehr erreichbar sind. Es ist also JETZT eigentlich alles gut. Ihr könnt die seiten wenns nur ein paar hundert sind bei dem WMT löschen und dann ist gut. Ansonsten verschwinden die auch nach einer weile automatisch Bei mir hat es aber ca. 6 Monate gedauert.

Hallo Ihr, ich habe in den Webmaster Tools die Sitemap neu angemeldet und die Crawling Fehler zurückgesetzt. Mal sehen, was das bewirkt. Bis jetzt keine neuen Fehler. Interessant daran ist nur, dass die Fehler erst nach der Umstellung auf die 4.1 angezeigt wurden. Vorher lief aber bereits ca. 3 Moante die Version 4.0.7/4.0.8. War auch kein Update von der 3.5.6 sondern eine Neuinstallation. Wenn Ihr schreibt, dass es nur ein Problem der 3.5er Version war, sollte sich das Problem ja von selbst erledigen. :slight_smile: Danke und Gruß, Tom

@fliesen kannst du mir erklären, wie du die robot.txt eingesetzt hast? Ich habe gelesen Showware erstellt eine von alleine, ist aber nirgends zu finden. Hast du dir selber eine erstellt und auf’m server abgelegt? Würde gerne die von Shopware nehmen.