Separate robots.txt für die Shops

Hallo Gemeinde, befinde mich momentan mit meinem SEO auf Kriegsfuß. Er ist der Meinung, dass was Shopware möglich gemacht hat, wieder rückgängig machen zu müssen. Damit ist das Subshopmodul gemeint, sein Problem sind die robots.txt die er separat haben möchte. Die robots.txt für den Hauptshop und 2 robots.txt für die weiteren Subshops. Wie lässt sich dieses Vorhaben umsetzen, den Shopware hat diese Funktion im Kern. Ich habe schon versucht 2 robots.txt in den zugehörigen Templateordnern anzulegen, jedoch ohne Erfolg. Freue mich über jeden Vorschlag. MfG Phialawein

Ist die Generierung der zusätzlichen robots.txt das Problem oder die Ablage, wenn die unterschiedlichen Domains angesprochen werden? Mehrere robots.txt sind nur sinnvoll, wenn es auch mehrere Domains sind. Mit einem Sprachkonstrukt à la http://www.domain.com/sprache funktioniert es generell nicht. Die drei Dateien lassen sich mit unterschiedlichen Namen in der Document Root anlegen und dann kommt ein interner Rewrite drauf, je nachdem, was das Ergebnis von RewriteCond %{http_host} ist: RewriteCond %{http\_host} ^zweitdomain\.com RewriteRule robots.txt$ robots-zweitdomain.txt RewriteCond %{http\_host} ^drittdomain\.com RewriteRule robots.txt$ robots-drittdomain.txt Ist ungetestet und aus dem Kopf, aber prinzipiell sollte es so funktionieren.