vor Kurzem habe ich noch im Demomodus im Shop5.3.3 probiert. Soweit fand ich alles gut und habe den Shop nun für mich installiert und diesen auf Livemodus gestellt.
Dazu habe ich ihn auch bei Google angemeldet. Ich wundere mich seit 2 Wochen, warum ich nicht indexiert werde.
In der Search Console habe ich dann das gefunden:
http://www.meinehomepage.de/widgets/Listing/ajaxListing
"...Der Googlebot konnte nicht auf den Inhalt dieser URL zugreifen, da bei der Verarbeitung der Anfrage ein interner Fehler aufgetreten ist..."
Wenn ich den angegebenen Link aufrufe kommt das:
Ups! Ein Fehler ist aufgetreten!
Wir wurden bereits über das Problem informiert und arbeiten an einer Lösung, bitte versuchen Sie es in Kürze erneut.
Leider kann ich damit gar nichts anfangen.
Eine vorgefertigte robots.txt sagt das aus. Also, die ist nicht von mir:
User-agent: *
Crawl-delay: 10
Ich habe schon einen Shop in Version 4.1.8 beim gleichen Hoster laufen. Da hatte ich zu Anfang nicht das Problem. Irgendwas muss ich vielleicht noch für die 5er Version einstellen, umstellen, angeben???
Sagt mir bitte jemand wie ich das Problem beseitigen kann? Ich wünsche einen schönen 2. Advent. :))
Das mit dem veraltet verstehe ich nicht. Der Google Bot wollte vor 2 Tagen auf diesen Pfad zugreifen. Das habe ich ja nicht bestimmt. Es kam halt nur diese Meldung, daß ein Error vor 2 Tagen statt gefunden hat mit dieser URL. Ist das eine Grundeinstellung? Muss ich da erst was ändern oder so?
Was ich unternommen habe ist, daß ich einen neuen Crawl Antrag in der Search Console gestellt habe.
Wo die robots.txt herkommt, weiß ich auch nicht. Ich habe die definitiv nicht angelegt. Diese Crawl-delay Angabe kenne ich gar nicht. Was bedeutet das? Heißt das ein verbot für den Bot?
Meine URL zum Shop lautet: paper2fold.de
Habe jetzt eine eigene robots.txt angelegt.
Ich hoffe, es klappt beim nächsten Crawl.
Nein, du sollst keine Datei anlegen. Lösche diese wieder aus dem Hauptverzeichnis. Shopware generiert diese automatisch beim Auruf. Wenn du dort eine Datei namens robots.txt hinlegst, greift die Shopware interne robots.txt nicht mehr.
Im Standard von Shopware ist die robots.txt bereits optimiert und bedarf keinerlei Änderungen. Die robots.txt von Shopware 5 wird dynamisch aus dem Template erzeugt. Somit kann die über eine Anpassung am Template problemlos angepasst werden. Für jeden Deiner Subshops kannst Du über das Template eine individuelle robotos.txt anbieten.
Administrator Moritz Naczenski schreibt die vorhandene wäre nicht von Shopware.
simkli schreibt, Die robots.txt von Shopware 5 wird dynamisch aus dem Template erzeugt.
Demnach also doch von Shopware, denn ich hatte die nicht angelegt.
Shopware legt nie eine Datei ab - wenn eine Datei “robots.txt” auf deinem Server existiert, lösch die. Wie @simkli schreibt, wird die dynamisch erzeugt, d.h. es gibt zwar die URL /robots.txt aber keine Datei auf dem Server. Wenn eine solche Datei auf dem Server liegt - dann muss die gelöscht werden, weil eben die Shopware Logik nicht angesprochen wird, wenn da eine solche Datei liegt.