Domain spezifische robots.txt Regeln

Hallo zusammen,

ich versuche Domain spezifische robots.txt Regeln einzusetzen und habe daher die Standard Regeln ausgeschaltet. Die robot.txt wird dann aber falsch zusammengesetzt. Gibt es dafür eine Erklärung? Was kann ich tun?

Danke schonmal für Infos und Grüße

Ralf

Wie zeigt sich der Fehler? Mühsam einen unbekannten Fehler in zwei Bildern zu suchen.

Ich habe alles ab “User-agent: *” eingegeben. Alles was darüber ist, wurde von Shopware automatisch zugefügt. Ich weiß nicht, woher die Zeilen genommen werden. Der Cache wurde mehr als einmal gelöscht. Da die robot.txt jetzt nicht mit “User-agent: *” anfängt, wird sie nicht korrekt gelesen.
Ich würde sie ja gerne im Webverzeichnis per Hand anpassen, aber sie liegt leider nicht, wie man bei einer Websuche immer liest, im Verzeichnis “…//meineDomain/public”.

Die Datei wird dynamisch generiert. Sonst könnte diese per Sales Channel nicht unterschiedlich sein.

Vermutlich hast du mehrere Verkaufskanäle unter der gleichen Domain.

Dann übernimmt es alle Einträge aus dieser Domain.

Unterschiedliche Domains/Subdomains nutzen, dann ist das „Problem“ behoben.

Hi Max,

ich habe zwar mehrere, genau gesagt 3, Verkaufskanäle, aber die laufen alle unter verschiedenen Aliasdomains. Und 2 von den 3 sind aktuell nicht aktiv.

VG Ralf

Moin @Mr.RaCie,

hast du jetzt erst mit 6.7.x gestartet? Vorher mussten die Dateien ja immer manuell hinterlegt werden, da Shopware die nicht automatisch generiert hat. Im Zweifel würde ich schauen, das nach der Methode wieder zu machen?

Grüße
Matthias

Hallo Matthias,

ja, ich habe mit 6.7 angefangen und bisher keine manuell erstellte Datei hinterlegt.
Ich werde mal eine Datei in das public Verzeichnis legen. Ist die Frage ob das erkannt wird und was dann die höhere Priorität hat.

Grüße
Ralf