Hallo,
ich schaffe es nicht, die robots.txt anzupassen.
Inhalt der Datei Bare/frontend/robots_txt/index.tpl:
{block name="frontend_robots_txt_user_agent"}
User-agent: *
{/block}
{block name="frontend_robots_txt_disallows"}
Disallow: {url controller=compare fullPath=false}
Disallow: {url controller=checkout fullPath=false}
Disallow: {url controller=register fullPath=false}
Disallow: {url controller=account fullPath=false}
Disallow: {url controller=note fullPath=false}
Disallow: {url controller=widgets fullPath=false}
Disallow: {url controller=listing fullPath=false}
Disallow: {url controller=ticket fullPath=false}
{/block}
{block name="frontend_robots_txt_allows"}
Allow: {url module=widgets controller=emotion fullPath=false}
{/block}
{block name="frontend_robots_txt_sitemap"}
Sitemap: {url controller=index}sitemap.xml
{/block}
{block name="frontend_robots_txt_sitemap_mobile"}
{if {config name=mobileSitemap}}
Sitemap: {url controller=index}sitemapMobile.xml
{/if}
{/block}
Inhalt der Datei MeinTheme/frontend/robots_txt/index.tpl:
{extends file="parent:frontend/robots_txt/index.tpl"}
{block name="frontend_robots_txt_user_agent"}
User-agent: *
{/block}
{block name="frontend_robots_txt_disallows"}
Disallow: /
{/block}
{block name="frontend_robots_txt_allows"}
{/block}
{block name="frontend_robots_txt_sitemap"}
{/block}
{block name="frontend_robots_txt_sitemap_mobile"}
{/block}
Ich will also in der robots.txt sämtliches Crawling ausschließen. Die anderen Blöcke habe ich leer notiert, damit die in Bare definierten Blöcke mit den Leeren überschrieben werden.
Denkste! Trotz Theme neu kompilieren und alle Caches löschen sieht die robots.txt weiterhin so aus:
User-agent: *
Disallow: /compare
Disallow: /checkout
Disallow: /register
Disallow: /account
Disallow: /note
Disallow: /widgets
Disallow: /listing
Disallow: /ticket
Allow: /widgets/emotion
Sitemap: https://test.meineshopurl.de/sitemap.xml
Sitemap: https://test.meineshopurl.de/sitemapMobile.xml
Was mache ich falsch?