"noindex"-Tag in der robots.txt

Hallo,

durch eine Änderung in meiner robots.txt Datei erhalte ich in der Google Search Console jetzt jede Menge Ablehnungsseiten aufgrund “Durch “noindex”-Tag ausgeschlossen”.

Meine Robots sieht folgendermaßen aus:

User-agent: *

Disallow: /compare
    Disallow: /checkout
    Disallow: /register
    Disallow: /account
    Disallow: /note
    Disallow: /widgets
    Disallow: /listing
    Disallow: /ticket
    Disallow: /search

Sitemap: https://www

Was ist daran falsch ? Über eine Lösung wäre ich euch sehr dankbar.

 

Bei den Textbausteinen gibt es eine Einstellung für robots. Vielleicht ist dort ja noch auf noindex,nofollow eingestellt.

danke erstmal für die schnelle Rückmeldung. Bei den Textbausteinen gibt es zwei Einträge backend und frontend - ist das nicht der Standart und sollte nicht verändert werden?

backend/base/index        meta/robots      noindex,nofollow

frontend/index/header     IndexMetaRobots     index,follow

Nö ist alles in OK, Frontend auf index und Backend natürlich noindex. In zweifel kannst du im Frontend ja in den Quelltext der abgelehnten Seite nachschauen was bei Meta Robots steht. Bei Änderungen ggf. den Cache löschen.