Für meinen Shop (SW 5.2.6) ist die robots.txt nur mit großem R, also als Robots.txt aufrufbar. Soweit ich weiss, muss sie aber robots.txt (kleines r) heissen und so behauptet Google dann auch, ich hätte keine robots.txt.
Wie kommt sowas? Was kann ich tun?
Edit: Ich hab noch ein paar andere Shops mit unterschiedlichen SW-Versionen probiert, das ist überall so. Bin ich jetzt auf dem völlig falschen Dampfer?
Das hab ich auskommentiert, seitdem gehts. Ich würde zwar behaupten, dass damit lediglich das Logging für die robots.txt ausgeschaltet wird, aber das ist offensichtlich nicht der Fall. Die von mir getesteten drei Shops nutzen alle diese globale Shopware-nginx-Konfiguration, deshalb war das bei allen so.
Ich häng mich hier gerade mal dran, weil ich in unserem Shop mal getestet habe, was passiert, wenn ich die robots.txt mir großem R aufrufe.
Da wird dann tatsächlich eine Robots.txt angezeigt, die sich von der robots.txt unterscheidet.
Dann hab ich das mal mit dem Shopware-Demoshop gemacht.
Beim Aufruf von robots.txt kommt eine nginx-Fehlermeldung, warum auch immer.
Bei Aufruf von Robots.txt kommt die Datei mit dem Inhalt, der im Bare-Theme unter robots_txt definiert ist.
Der Aufruf der Robots.txt sollte einen Fehler 404 ausgeben.
Robots.txt und robots.txt geht auch beim reinen Apache - aber nur mit R/r. Andere Variationen führen zum 404
Allerdings sind bei mir beide gleich - habe aber auch im Theme nichts angepasst.
Ich habe eine physikalische robots.txt und lasse die vom Shop generierte aussen vor.
Bisher wurde die Robots.txt auch nicht aufgerufen von irgendeinem Crawler, aber man weiß ja nie.
der Beitrag ist ist schon was älter, aber ich muss hier leider mal “Totengräber” spielen.
Wir hosten unseren Shop bei @TimmeHosting und haben derzeitig folgendes Problem.
Wir können die robots.txt im Hauptordner nicht nutzen, da wir Subshops einsetzen und gerne über die robots.txt die Sitemap.xml mit ausgeben wollen.
Deshalb wollen wir die “dynamisch” erzeugte robots.txt von Shopware nutzen. Klappt soweit auch ganz gut, jedoch ist hier nach wie vor das Problem das sich die robots.txt nur über R obots.txt aufrufen lässt und nicht über r obots.txt. Der Aufruf von Robots.txt führt zum gewünschten Ergebnis, der Aufruf von robots.txt liefert uns einen 404 Not Found - nginx Fehler.
Ist das normal ? liegt das hier am Nginx Server oder am Shopware Shop, der die dynamische robots.txt nur (fehlerhafterweise?) beim Aufruf per R obots.txt ausgibt ?