E-VS
29. März 2026 um 08:24
1
Hallo
Kann mir jemand sagen was ich da machen muß?
Produktseiten können nicht geprüft werden
Verhindert die Anzeige in Deutschland
Google kann Ihre Produkt-Landingpage nicht crawlen. Automatisierte Qualitäts- und Richtlinienüberprüfungen sind nicht möglich.
Ihre Website muss die folgenden Anforderungen erfüllen
Aktualisieren Sie die Datei „ robots.txt “ auf Ihrem Webserver, damit der Google-Crawler die angegebenen Produktseiten aufrufen kann
Achten Sie darauf, dass Ihre Datei „ robots.txt “ sowohl dem User-Agent „ Googlebot “ (für Landingpages) als auch dem User-Agent „ Googlebot-image “ (für Bilder) das vollständige Crawlen Ihrer Website erlaubt.
Ich bin seit ein paar Wochen zu TmmeHosting gewechselt und seit dem ist das so.
Kavkus
29. März 2026 um 08:25
2
Wie schaut den die Robots.txt aus?
E-VS
29. März 2026 um 08:54
4
User-agent: *
Allow: /
Disallow: /*?
Allow: /*theme/
Allow: /media/*?ts=
Disallow: /account/
Disallow: /checkout/
Disallow: /widgets/
Allow: /widgets/cms/
Allow: /widgets/menu/offcanvas
Sitemap: https://www.meine Seite.de/sitemap.xml
Unsere sieht so aus:
User-agent: *
Allow: /
Disallow: /account/
Disallow: /checkout/
Disallow: /widgets/
Disallow: /_profiler/
Disallow: /bundles/
Sitemap: https://www.website.de/sitemap.xml
Was soll hiermit bezweckt werden?
Disallow: /*?
Allow: /theme/
Allow: /media/ ?ts=
Würde ich rauswerfen.
Wir sind auch bei TimmeHosting und haben mit den robots.txt wie oben kein Problem.
Vielleicht hast du auch ein Berechtigungsproblem auf den Verzeichnissen oder genau auf diese Datei? Funktioniert sonst der Shop wunderbar?
PS: der Titel des Threads ist sehr ungenau. Bitte sowas schreiben wie: „robots.txt: Webseite kann nicht gecrawlt werden“
E-VS
29. März 2026 um 09:33
6
Ok vielen Dank habe es geändert.
stan_o
31. März 2026 um 09:51
7
Wir hatten
User-agent: Googlebot-Image
Allow: */?ts=
reingenommen, weil Google die Bilder nicht mehr crawlen konnte/durfte.
Kam nach irgendeinen Update die Meldung. 6.4 auf 6.5 ? zu lange her
edit ok hier wars. 6.5 auf 6.6
Hallo,
seit dem Update von SW 6.5.8.7 auf 6.6.4 bekommen wir im Google Merchant Center die Meldung, dass die Produkte für Google-Shopping nicht mehr gelistet werden können, weil die Bilder aufgrund der Datei robots.txt nicht nicht gecrawlt werden.
Unsere Robots sieht so aus:
User-agent: *
Allow: /
Disallow: */?
Disallow: */account/
Disallow: */checkout/
Disallow: */widgets/
Disallow: */navigation/
Disallow: */bundles/
Woran kann das liegen bzw. kann es mit dem Update zusammenhängen oder ist …