ich versuche Domain spezifische robots.txt Regeln einzusetzen und habe daher die Standard Regeln ausgeschaltet. Die robot.txt wird dann aber falsch zusammengesetzt. Gibt es dafür eine Erklärung? Was kann ich tun?
Ich habe alles ab “User-agent: *” eingegeben. Alles was darüber ist, wurde von Shopware automatisch zugefügt. Ich weiß nicht, woher die Zeilen genommen werden. Der Cache wurde mehr als einmal gelöscht. Da die robot.txt jetzt nicht mit “User-agent: *” anfängt, wird sie nicht korrekt gelesen.
Ich würde sie ja gerne im Webverzeichnis per Hand anpassen, aber sie liegt leider nicht, wie man bei einer Websuche immer liest, im Verzeichnis “…//meineDomain/public”.
ich habe zwar mehrere, genau gesagt 3, Verkaufskanäle, aber die laufen alle unter verschiedenen Aliasdomains. Und 2 von den 3 sind aktuell nicht aktiv.
hast du jetzt erst mit 6.7.x gestartet? Vorher mussten die Dateien ja immer manuell hinterlegt werden, da Shopware die nicht automatisch generiert hat. Im Zweifel würde ich schauen, das nach der Methode wieder zu machen?
ja, ich habe mit 6.7 angefangen und bisher keine manuell erstellte Datei hinterlegt.
Ich werde mal eine Datei in das public Verzeichnis legen. Ist die Frage ob das erkannt wird und was dann die höhere Priorität hat.
Ich habe jetzt eine eigene robots.txt in das Verzeichnis **/public gelegt und die wird
sauber übernommen. Damit ist das Thema für mich erstmal positiv erledigt.
Shopware sollte sich das Thema aber nochmal anschauen. Scheint für mich noch nicht ganz wie gewollt zu funktionieren.