Shopware 6 Onlineshop wird nicht von Google indexiert

Hallo liebe Community,

Wir haben einen Shopware 6 Onlineshop ( https://shorturl.at/yqJlf ) aufgebaut, jedoch starke Probleme mit der Indexierung der Seiten.

Beim anstoßen der manuellen Indexierung über die Google Search Console werden die Seiten teilweise im Suchindex von Google aufgenommen und nach einigen Tagen wieder rausgeworfen. Bleibt dann im Status „Gecrawlt - zurzeit nicht indexiert“. Nur die Startseite bleibt laut GSC dauerhaft indexiert.

Ich bin Informatiker und war bereits vorher selbstständig im IT Bereich. Die meisten Onlineshops hatte ich mit Shopware 5 oder Wordpress (WooCommerce) realisiert. Zudem habe ich es nahezu immer geschafft die Kundenseiten – ohne Ads – nur durch SEO-optimierung unter den Top 3 Suchergebnissen bei Google zu listen.

Jetzt habe ich eine eigene Unternehmung gegründet und wollte direkt mit der neuen Generation Shopware 6 starten.

Jedoch bekomme ich den Shop nicht bei Google ordentlich indexiert, obwohl meiner Meinung nach alles korrekt eingerichtet wurde.

Nur die Startseite und anscheinend Datenblätter zu den Produkten (PDF Mediendaten - werden bei google unter site:meinewebsite.de ausgegeben - jedoch nicht bei GSC unter Seitenindexierung angezeigt) wurden langfristig indexiert. Bei Bing und Co. wird die Seite anscheinend ordentlich indexiert.

Wir nutzen als Hauptdomain ohne www. Und die Shopware 6 Version 6.6.9.0

Wir sind ein Startup Unternehmen und die fehlende Onlinesichtbarkeit ist für uns mittlerweile ein sehr großes Problem. Zumal wir / ich sehr viel Zeit für die Erstellung und SEO-optimierung des Shop bereits investiert haben.

Das ganze Thema treibt mich so weit, dass ich kurz davor bin, den gesamten Shop nochmals mühsam auf eine Marktbegleiter Software umzuziehen…

Ist jemanden so ein Problem bzw. ein ähnliches bekannt und gibt es möglicherweise Lösungsansätze für uns?

Wir würden uns über Unterstützung jeglicher Art sehr freuen.

Bitte mal die robots.txt prüfen:

Deine auf https://macanmo.com/robots.txt


User-agent: *
Disallow: /?*
Disallow: /account/
Disallow: /checkout/
Disallow: /widgets/
Disallow: /navigation/
Disallow: /bundles/

Sitemap: https://macanmo.com/sitemap.xml


Hier würde ich explizit am Anfang mal ein Allow setzen.

Beispiel unsere robots.txt:


User-agent: *
Allow: /
Disallow: /account/
Disallow: /checkout/
Disallow: /widgets/
Disallow: /_profiler/
Disallow: /bundles/

Sitemap: https://www.webseite.de/sitemap.xml


Oder was möchtest du mit:
Disallow: /?*
bezwecken? Dies dann rauswerfen.

Hallo @raymond-de,

vielen Dank für deine zügige Unterstützung!

Das Disallow /?* steht eigentlich für den Ausschluss von URL´s von gefilterten Seiten wie z.B. gefilterte Kategorien oder der Suchergebnisseiten.

Habe soeben explizit das Allow mit in der Robots.txt aufgenommen. Normalerweise kenne ich es so, dass es nicht benötigt wird und falls nicht etwas durch Disallow ausgeschlossen wurde, sowieso gecrawlt wird.

Ja dann lasse deins drin und schreibe darüber das Allow, was du ja schon getan hast.

Ist es so schlimm wenn gefilterte Seite indexiert werden? Vielleicht macht das eh Google und co nicht, da dann die zu indexierten Seiten in der Anzahl explodieren würden.

Schaut mal, das ist doch ein ganz ähnliches Verhalten wie hier schon beschrieben: Probleme mit der Indexierung – Seiten verschwinden aus dem Google-Index.

Schau doch bitte nochmal bei Dir in die Search Console, @cjg. Kannst Du dort etwas erkennen, warum die Seiten nicht im Index auftauchen? Vielleicht kannst Du auch mal den Crawler ganz dediziert auf eine solche Seite loslassen: 1L Verdünnung für 1K-Flüssiggasbehälter Lacke | MACANMO Colors

Hallo @marco.steinhaeuser, vielen Dank für dein Feedback!

Ja richtig, der andere Beitrag sieht mir ziemlich genau nach unserem Problem aus.
Scheint so, als ob dort auch noch keine Lösung gefunden wurde…

Die wichtigen Seiten stehen unter dem Status „Gecrawlt - zurzeit nicht indexiert“ trotz intensiver SEO-Anpassungen. Nur die Startseite bleibt dauerhaft im Suchindex.

Interessant finde ich, dass die PDF-Produktdatenblätter, welche auf der product_detail Seite unter „Downloads“ angeboten werden, bei der GSC unter „Duplikat – vom Nutzer nicht als kanonisch festgelegt“ fallen. Die Hersteller der Produkte haben die Datenblätter auch online Verfügbar und anscheinend bestimmt Google diese als externen canonical. Bei der GSC ist eigentlich nur die Startseite als indexiert markiert (sprich 1 Seite bei Indexierung), wenn man jedoch bei Google „site:meineseite.com“ sucht, wird die Startseite und (ich nehme an) alle PDF-Produktdatenblätter angezeigt. Wir hatten Anfangs folgendes Tool für ein PDF Downloadcenter genutzt:

  • Download center / Menu + additional file formats for media von Webpiloten

Seitdem wir dieses Plugin nutzten, kamen die duplicate Content Probleme mit den PDF Datenblättern. Das Plugin ist allerdings seit mehreren Monaten deaktiviert und das Problem besteht wohl weiterhin.

Wie kann ich über die GSC den Crawler auf eine Unterseite loslassen?
Ich hatte diesen Schritt bereits mit anderen Tools von Sistrix und Seobility getestet - ohne Probleme.
Wir sind bereits mit ein paar SEO-Beratern im Gespräch. Leider können keine großen Fehler / Probleme erkannt werden, zumal mindestens ein paar Seiten mehr indexiert sein müssten…

Ich bin weiterhin für jede Hilfe / Unterstützung sehr dankbar!

Mir fällt gerade auf, bei Kontrolle des Shops (von dem von @marco.steinhaeuser verlinkten Shopware Beitrag mit dem ähnlichen Problem) https://shop-verladesysteme.de/, dass hier auch kein www. genutzt wird und vor allem das gleiche Theme bzw. der gleiche Herausgeber genutzt wird. Kann das möglicherweise am Theme Gravity von Zenit liegen?

Schaut mal, das ist doch ein ganz ähnliches Verhalten wie hier schon beschrieben: Probleme mit der Indexierung – Seiten verschwinden aus dem Google-Index.

Hi @cjg,
wir haben leider bisher auch keine Lösung hierzu. Wenn ich eine habe, gebe ich hier gerne bescheid.

Hi @d.demelt,

ich habe Zenit Design den Theme Herausgeber soeben über unsere beiden Fälle informiert (und beide Shopware Beiträge von uns verlinkt). Tatsächlich hatte ich bereits die Vermutung, dass es auch am Theme liegen könnte und daher bereits vor ca. 1 Woche Zenit Design kontaktiert.
Mal schauen, ob wir doch noch die Nadel im Heuhaufen finden.

Drücke uns die Daumen!

Sorry, ich bin da auch mit meinem Latein erstmal am Ende, habe mir das schon aus allen möglichen Perspektiven angeschaut. Ganz gewiss ist nicht die fehlende Subdomain das Problem.

Auch im Theme müsste man schon (bewusst) über das Template etwas eingebaut haben. Aber dort sehe ich keinen noindex o.ä., auch gibt es saubere H1-Tags und Title-Beschreibungen.

Ich verstehe das Verhalten einfach nicht.

Mich wundert, das die GSC da keinen Hinweis drauf hergibt. Ich kenn das eigentlich so, das bei Problemen diese konkret benannt werden und damit dann behoben werden können.