robots.txt - Seiten für Google Indexierung sperren

Hey,

ich möchte gerne ein paar Seiten (wie z.B. Partnerformular) von Google ausschliessen.

Ist es richtig das ich dann nur folgendes in die robots.txt packe:

**Disallow: /** Partnerformular

 

Meine robots.txt würde dann wie folgt aussehen

{block name=“frontend_robots_txt_user_agent”}
User-agent: *
{/block}

{block name=“frontend_robots_txt_disallows”}
Disallow: {url controller=compare fullPath=false}

Disallow: {url controller=checkout fullPath=false}

Disallow: {url controller=register fullPath=false}

Disallow: {url controller=account fullPath=false}

Disallow: {url controller=note fullPath=false}

Disallow: {url controller=listing fullPath=false}

Disallow: {url controller=ticket fullPath=false}

Disallow: /Partnerformular
{/block}

 

{block name=“frontend_robots_txt_allows”}
Allow: {url module=widgets controller=emotion fullPath=false}

Allow: {url controller=widgets fullPath=false}
{/block}

{block name=“frontend_robots_txt_sitemap”}
Sitemap: {url controller=index}sitemap.xml
{/block}

{block name=“frontend_robots_txt_sitemap_mobile”}
{if {config name=mobileSitemap}}
Sitemap: {url controller=index}sitemapMobile.xml
{/if}
{/block}

 

Kann mir vielleicht jemand sagen ob das richtig ist ? Ich bin etwas unsicher. Danke

Hallo,

kann man das nicht einfach über die Grundeinstellungen - Storefront - SEO

SEO-Noindex regeln ? Wenn man die passenden Einträge kennt ?

 

Ansonsten ist es im Guide ganz gut beschrieben

Dort ist auch eine Beschreibung wie man es eventuell in den Google Webmaster Tools regeln kann.

Überschrift “URL-Parameter in Google Webmaster Tools”

Dass Google selbst keine große Hilfe dabei ist weiss ich.