„ robots.txt “ Webseite kann nicht gecrawlt werden

Hallo

Kann mir jemand sagen was ich da machen muß?

Produktseiten können nicht geprüft werden

Verhindert die Anzeige in Deutschland

Google kann Ihre Produkt-Landingpage nicht crawlen. Automatisierte Qualitäts- und Richtlinienüberprüfungen sind nicht möglich.

Ihre Website muss die folgenden Anforderungen erfüllen

  • Aktualisieren Sie die Datei „ robots.txt “ auf Ihrem Webserver, damit der Google-Crawler die angegebenen Produktseiten aufrufen kann

  • Achten Sie darauf, dass Ihre Datei „ robots.txt “ sowohl dem User-Agent „ Googlebot “ (für Landingpages) als auch dem User-Agent „ Googlebot-image “ (für Bilder) das vollständige Crawlen Ihrer Website erlaubt.

Ich bin seit ein paar Wochen zu TmmeHosting gewechselt und seit dem ist das so.

Wie schaut den die Robots.txt aus?

Wo finde ich die Datei?

User-agent: *

Allow: /

Disallow: /*?

Allow: /*theme/

Allow: /media/*?ts=

Disallow: /account/
Disallow: /checkout/
Disallow: /widgets/
Allow: /widgets/cms/
Allow: /widgets/menu/offcanvas

Sitemap: https://www.meine Seite.de/sitemap.xml

Unsere sieht so aus:

User-agent: *
Allow: /
Disallow: /account/
Disallow: /checkout/
Disallow: /widgets/
Disallow: /_profiler/
Disallow: /bundles/

Sitemap: https://www.website.de/sitemap.xml

Was soll hiermit bezweckt werden?
Disallow: /*?
Allow: /theme/
Allow: /media/
?ts=

Würde ich rauswerfen.

Wir sind auch bei TimmeHosting und haben mit den robots.txt wie oben kein Problem.

Vielleicht hast du auch ein Berechtigungsproblem auf den Verzeichnissen oder genau auf diese Datei? Funktioniert sonst der Shop wunderbar?

PS: der Titel des Threads ist sehr ungenau. Bitte sowas schreiben wie: „robots.txt: Webseite kann nicht gecrawlt werden“

Ok vielen Dank habe es geändert.