Ups! Ein Fehler ist aufgetreten! "...widgets/Listing/ajaxListing"

Hallo,

vor Kurzem habe ich noch im Demomodus im Shop5.3.3 probiert. Soweit fand ich alles gut und habe den Shop nun für mich installiert und diesen auf Livemodus gestellt.

Dazu habe ich ihn auch bei Google angemeldet. Ich wundere mich seit 2 Wochen, warum ich nicht indexiert werde.

In der Search Console habe ich dann das gefunden:

http://www.meinehomepage.de/widgets/Listing/ajaxListing

"...Der Googlebot konnte nicht auf den Inhalt dieser URL zugreifen, da bei der Verarbeitung der Anfrage ein interner Fehler aufgetreten ist..."

 

Wenn ich den angegebenen Link aufrufe kommt das:

Ups! Ein Fehler ist aufgetreten!
Wir wurden bereits über das Problem informiert und arbeiten an einer Lösung, bitte versuchen Sie es in Kürze erneut.

Leider kann ich damit gar nichts anfangen.

Eine vorgefertigte robots.txt sagt das aus. Also, die ist nicht von mir:

User-agent: *
Crawl-delay: 10

Ich habe schon einen Shop in Version 4.1.8 beim gleichen Hoster laufen. Da hatte ich zu Anfang nicht das Problem. Irgendwas muss ich vielleicht noch für die 5er Version einstellen, umstellen, angeben???

Sagt mir bitte jemand wie ich das Problem beseitigen kann? Ich wünsche einen schönen 2. Advent. :))

Liebe Grüße

Sille 

hI Sille,

wie lautet dir URL zu deinem Shop. Dann könnte man es sich einmal ansehen.

Die genannte URL aus der Fehlermeldung ist aber veraltet.

Vielleicht liegt es an deinem Theme.

Gruß Heiner

Also die Robots.txt kommt nicht von Shopware, lösch die mal weg.

Ist ja damit kein Wunder, dass der Bot URLs crawlt, die er garnicht crawlen soll.

Erst einmal lieben Dank für Eure Antworten.

Das mit dem veraltet verstehe ich nicht. Der Google Bot wollte vor 2 Tagen auf diesen Pfad zugreifen. Das habe ich ja nicht bestimmt. Es kam halt nur diese Meldung, daß ein Error vor 2 Tagen statt gefunden hat mit dieser URL. Ist das eine Grundeinstellung? Muss ich da erst was ändern oder so?
Was ich unternommen habe ist, daß ich einen neuen Crawl Antrag in der Search Console gestellt habe.

Wo die robots.txt herkommt, weiß ich auch nicht. Ich habe die definitiv nicht angelegt. Diese Crawl-delay Angabe kenne ich gar nicht. Was bedeutet das? Heißt das ein verbot für den Bot?
Meine URL zum Shop lautet: paper2fold.de

Habe jetzt eine eigene robots.txt angelegt.
Ich hoffe, es klappt beim nächsten Crawl.

Liebe Grüße und schönen restlichen Sonntag.

Sille

 

Habe jetzt eine eigene robots.txt angelegt.

Nein, du sollst keine Datei anlegen. Lösche diese wieder aus dem Hauptverzeichnis. Shopware generiert diese automatisch beim Auruf. Wenn du dort eine Datei namens robots.txt hinlegst, greift die Shopware interne robots.txt nicht mehr.

Im Standard von Shopware ist die robots.txt bereits optimiert und bedarf keinerlei Änderungen. Die robots.txt von Shopware 5 wird dynamisch aus dem Template erzeugt. Somit kann die über eine Anpassung am Template problemlos angepasst werden. Für jeden Deiner Subshops kannst Du über das Template eine individuelle robotos.txt anbieten.

aus der Dokumentation

Viele Grüße

1 „Gefällt mir“

Hallöchen und guten Morgen,

jetzt macht Ihr mich ganz wuschig.

Administrator Moritz Naczenski schreibt die vorhandene wäre nicht von Shopware.

simkli schreibt, Die robots.txt von Shopware 5 wird dynamisch aus dem Template erzeugt.
Demnach also doch von Shopware, denn ich hatte die nicht angelegt.

Also, lösche ich jetzt einfach nur wieder.

Lieben Dank *verwirrt*

Schöne Woche :wink: Ich melde mich.

Sille

 

Shopware legt nie eine Datei ab - wenn eine Datei “robots.txt” auf deinem Server existiert, lösch die. Wie @simkli‍ schreibt, wird die dynamisch erzeugt, d.h. es gibt zwar die URL /robots.txt aber keine Datei auf dem Server. Wenn eine solche Datei auf dem Server liegt - dann muss die gelöscht werden, weil eben die Shopware Logik nicht angesprochen wird, wenn da eine solche Datei liegt.

1 „Gefällt mir“

Hallo,

ich hatte ja die robots.txt gelöscht und heute morgen noch einmal in die SearchConsole reingeschaut:

 

Es scheint nichts mit der robots.txt zu tun zu haben. Kann ich das vernachlässigen? Ich verstehe diesen Crawling-Fehler nicht.

Liebe Grüße

Sille