Shopware 6 Onlineshop wird nicht von Google indexiert

Hallo liebe Community,

Wir haben einen Shopware 6 Onlineshop ( https://shorturl.at/yqJlf ) aufgebaut, jedoch starke Probleme mit der Indexierung der Seiten.

Beim anstoßen der manuellen Indexierung über die Google Search Console werden die Seiten teilweise im Suchindex von Google aufgenommen und nach einigen Tagen wieder rausgeworfen. Bleibt dann im Status „Gecrawlt - zurzeit nicht indexiert“. Nur die Startseite bleibt laut GSC dauerhaft indexiert.

Ich bin Informatiker und war bereits vorher selbstständig im IT Bereich. Die meisten Onlineshops hatte ich mit Shopware 5 oder Wordpress (WooCommerce) realisiert. Zudem habe ich es nahezu immer geschafft die Kundenseiten – ohne Ads – nur durch SEO-optimierung unter den Top 3 Suchergebnissen bei Google zu listen.

Jetzt habe ich eine eigene Unternehmung gegründet und wollte direkt mit der neuen Generation Shopware 6 starten.

Jedoch bekomme ich den Shop nicht bei Google ordentlich indexiert, obwohl meiner Meinung nach alles korrekt eingerichtet wurde.

Nur die Startseite und anscheinend Datenblätter zu den Produkten (PDF Mediendaten - werden bei google unter site:meinewebsite.de ausgegeben - jedoch nicht bei GSC unter Seitenindexierung angezeigt) wurden langfristig indexiert. Bei Bing und Co. wird die Seite anscheinend ordentlich indexiert.

Wir nutzen als Hauptdomain ohne www. Und die Shopware 6 Version 6.6.9.0

Wir sind ein Startup Unternehmen und die fehlende Onlinesichtbarkeit ist für uns mittlerweile ein sehr großes Problem. Zumal wir / ich sehr viel Zeit für die Erstellung und SEO-optimierung des Shop bereits investiert haben.

Das ganze Thema treibt mich so weit, dass ich kurz davor bin, den gesamten Shop nochmals mühsam auf eine Marktbegleiter Software umzuziehen…

Ist jemanden so ein Problem bzw. ein ähnliches bekannt und gibt es möglicherweise Lösungsansätze für uns?

Wir würden uns über Unterstützung jeglicher Art sehr freuen.

Bitte mal die robots.txt prüfen:

Deine auf https://macanmo.com/robots.txt


User-agent: *
Disallow: /?*
Disallow: /account/
Disallow: /checkout/
Disallow: /widgets/
Disallow: /navigation/
Disallow: /bundles/

Sitemap: https://macanmo.com/sitemap.xml


Hier würde ich explizit am Anfang mal ein Allow setzen.

Beispiel unsere robots.txt:


User-agent: *
Allow: /
Disallow: /account/
Disallow: /checkout/
Disallow: /widgets/
Disallow: /_profiler/
Disallow: /bundles/

Sitemap: https://www.webseite.de/sitemap.xml


Oder was möchtest du mit:
Disallow: /?*
bezwecken? Dies dann rauswerfen.

Hallo @raymond-de,

vielen Dank für deine zügige Unterstützung!

Das Disallow /?* steht eigentlich für den Ausschluss von URL´s von gefilterten Seiten wie z.B. gefilterte Kategorien oder der Suchergebnisseiten.

Habe soeben explizit das Allow mit in der Robots.txt aufgenommen. Normalerweise kenne ich es so, dass es nicht benötigt wird und falls nicht etwas durch Disallow ausgeschlossen wurde, sowieso gecrawlt wird.

Ja dann lasse deins drin und schreibe darüber das Allow, was du ja schon getan hast.

Ist es so schlimm wenn gefilterte Seite indexiert werden? Vielleicht macht das eh Google und co nicht, da dann die zu indexierten Seiten in der Anzahl explodieren würden.