Hallo Ihr Ich habe zig Zugriffe vom russische Yandex Crawler. Ich möchte den gern ausgrenzen. ich habe gelesen dass man es zum einen über die htaccess machen kann oder in der robot.txt nun weiß ich das shopware eine eigene robot.txt erstellt. Wie gehe ich das nun an, wo und wie kommt der passende Eintrag zustande? In anderen Foren habe ich gelesen, dass solch ein Eintrag vorgenommen werden muss. User-agent: Yandex Disallow: / Wo wird dieser in der txt platziert? Ist das egal oder gibts da eine Struktur? In meiner SW index.tpl steht folgendes: User-agent: * Disallow: {url controller=compare fullPath=false} Disallow: {url controller=checkout fullPath=false} Disallow: {url controller=register fullPath=false} Disallow: {url controller=account fullPath=false} Disallow: {url controller=note fullPath=false} Sitemap: {url controller=index}sitemap.xml Vielen Dank für Hilfe