ich habe ein Problem mit der Indexierung meines Shopware 6 Shops und hoffe, dass jemand eine Idee hat, woran es liegen könnte.
Ausgangslage:
• Der Shop ging vor etwa einem Jahr live.
• Anfangs wurden Seiten schnell indexiert, aber Meta-Daten und Varianten waren nicht optimal.
• Nach einiger Zeit haben wir die Kategorien, Meta-Daten und URLs überarbeitet, da uns anfangs Erfahrung mit Shopware, SEO und Kundenverhalten gefehlt hat.
• Seit der Umstellung sind unsere organische Sichtbarkeit und indexierte Seiten fast auf null gesunken.
Bisherige Prüfungen:
• robots.txt geprüft → keine Einschränkungen.
• .htaccess geprüft → keine Fehler festgestellt.
• Sitemap in der Google Search Console überprüft & hochgeladen → wird korrekt eingelesen.
• Indexierungsstatus in GSC geprüft → einige Seiten wurden indexiert, dann aber wieder entfernt.
• Seitenstatus überprüft → alle wichtigen Seiten liefern Status 200.
• Shop-Performance geprüft → keine kritischen Probleme gefunden.
• Diverse URL-Checks durchgeführt → keine Hinweise auf Indexierungsprobleme.
Maßnahmen & aktueller Stand:
• Im Oktober 2024 haben wir alle Produkte neu angelegt, um eine saubere Struktur zu schaffen.
• Alle alten Produkte & Weiterleitungen wurden aus der Datenbank entfernt.
• Neue Produkte wurden mit neuen URLs und Artikelnummern angelegt.
• Nach ca. 3 Monaten erschienen die ersten neuen Produkte im Index.
• Die indexierten Produkte wuchsen auf maximal 150 von insgesamt 340.
• Doch bevor alle Produkte erfasst wurden, sind einige bereits indexierte wieder verschwunden.
• Aktuell sind nur noch 12 Seiten im Index – und es werden weniger.
• Seitdem wurden keine Änderungen durchgeführt, die das erklären würden.
Mögliche Ursache – Artikelanlage?
• Ich habe Hauptartikel mit bis zu 120 Varianten angelegt.
• Der Hauptartikel ist deaktiviert, nur die Varianten sind aktiv.
• Jede Variante hat eine eigene URL & eigene Meta-Daten, aber eine identische Beschreibung (da sich nur die Eigenschaften ändern).
• Hauptartikel hat keine SEO-Infos & verweist nicht auf eine Variante als kanonisches Produkt.
Hat jemand ähnliche Erfahrungen gemacht oder Ideen, woran es liegen könnte? Liegt es an der Artikelstruktur oder könnte es noch andere Gründe geben?
Kann es sein das Google die wegen duplicate Content gelöscht hat?
Produkte Neu angelegt.
Aber das ist nur raten an der Stelle.
Wenn Google etwas ablehnt oder feststellt bekommst du eine Info in der GSC da müsste es dann stehen was war.
Schonmal versucht Seiten manuell per kompletter URL einzureichen? falls nicht versuch das mal mit einer fehlenden URL vlt wird da bereits ein Problem angezeigt.
Mittlerweile sind nur noch drei Seiten indexiert. Ich sehe - auf den ersten flüchtigen - Blick keine groben Verstöße in der Struktur der Seiten oder beim Content.
Es ist völlig okay, in einem Online-Shop bestimmte Seiten nicht indexieren zu lassen bzw. in der robots.txt darum zu bitten: Checkout, Profile, Tax & Delivery etc.
Aber der Rest des Katalogbereiches und der Start-/Landingpages sollte irgendwie auffindbar sein.
Ist möglicherweise durch die .htaccess-Datei etwas versehentlich für alle Crowler ausgesperrt? Können wir diese Datei hier mal sehen?
Im Grunde sieht es für mich nicht wie ein Verstoß beim Content aus, für den man möglicherweise im Ranking etwas abgestraft werden könnte (es sei denn, alle Inhalte sind von einer anderen Seite geklaut, wovon ich erstmal nicht ausgehe). Ich denke, der Corpus Delicti liegt hier eher irgendwo in der aktiven Aussperrung während der Entwicklungsphase und irgendjemand hat vergessen, diesen Eintrag rauszunehmen
Auffällig ist der Abschnitt „gecrawlt - nicht indexiert“. Da sind etliche Seiten drin die live sein sollten. Prüfe ich einer der Seiten, steht angeblich der Indexierung nichts im Weg.
Bei den indexierten Seiten, stehe. Diverse Verweise. Hier weiß ich nicht warum z.B. die Seite „über uns“ verweist bzw. ob das so so sein soll.
Ich habe heute unsere gesamten URLs noch mal via Bulk-Aktion aktualisiert. Bis auf die Kategorien hat jetzt jede Produktseite eine neue Adresse. Indexiert wird aber nur der Elternartikel.
Ich habe die Vermutung das irgendwo dadrin im System ein Fehler war, da laut GSC die verweisenden Seiten nicht richtig angezeigt hat bzw. keine Sitemap dazu gefunden hat.
Zu verlieren habe ich ja aktuell nichts.
Um die GSC nicht weiter zu verwirren, habe ich nur die neue Sitemap eingereicht. Reicht das oder sollte ich noch einen Punkt anstoßen?
Ganz ehrlich? Grad remote ohne Systemzugriff usw. gerate ich echt an meine Grenzen und weiß nicht, warum Google so radikal nicht indexiert. Selbst ohne Sitemap sollte problemlos gecrawlt werden können - schliesslich gibt es eine interne Verlinkung.
Was mich in GSC stutzig macht ist „Verweisende Seite: Nicht gefunden“. Das ist aber auf der anderen Seite auch logisch, weil die /fbt/ den canonical Tag auf die erste Variante setzt. Was passiert denn, wenn Du mal nach dieser URL (des canoncial Tags) schaust, warum diese nicht indexiert ist?
Hi @marco.steinhaeuser,
ich habe ja Anfang der Woche paar Veränderungen im Shop vorgenommen.
• SEO-URLs neu generiert: Mithilfe der Erweiterung „SEO Professionell“ habe ich alle URLs neu generiert. Dabei wurden die kanonischen URLs bei Varianten auf eine Variante gesetzt sowie die Attribute index und follow entsprechend aktualisiert.
• Sitemap aktualisiert: Anschließend habe ich die Sitemap neu erstellt und in der Google Search Console hinterlegt. Daher könnten aktuelle Ergebnisse in der Search Console für den Artikel FBT bzw. dessen Variante momentan nicht aussagekräftig sein.
Mir ist gestern aber noch was aufgefallen.
Beim Laden der regulären Sitemap in der Search Console werden 340 Seiten gefunden.
Hallo Marco,
ich bin langsam echt ratlos. Nachdem ich die URLs neu gesetzt, die Sitemap aktualisiert und Google ausreichend Zeit zum Crawlen gegeben habe, werden die Seiten weiterhin nicht indexiert. Selbst bei manueller Eingabe einzelner URLs passiert nichts.
Die Search Console zeigt 10 Seiten im Index an, doch in den Google-Suchergebnissen tauchen sie nicht auf dafür aber andre. Interessanterweise sind die 3 indexierten Seiten über Google Ads getrackt – erkennbar an den URL-Parametern. Das nicht mehr Seiten durch Google Ads im Index stehen erkläre ich mir damit, das die Robots.txt seit kurzem das crawlen aller URLs mit „/?“ blockiert.
Ich verstehe nicht, warum die Sitemap nicht richtig greift oder warum falsche Verweise in der Search Console auftauchen. Tools wie Screaming Frog und XOVI zeigen keine Fehler: Canonicals sind korrekt, Statuscodes sind 200, die Struktur passt.
Hast du eine Idee, wo ich noch ansetzen könnte? Falls nötig, könnte ich dir temporären Zugriff auf die Search Console und das Backend geben.
Hi Max,
das Problem besteht ja schon seit über 1 Jahr. Wir haben auch mehrere Monate nichts an der Struktur verändert. Erst seit 3-4 Wochen versuchen wir es erneut mit diversen Umstellungen.
In der Search Console haben wir die Domain und URL-Präfix angelegt.
Ich glaub, ich hab was gefunden: Der A-Record ist nicht richtig gesetzt, er verweist lediglich auf www.shop-verladesysteme.de (also mit www). Einen A-Record mit der richtigen TLD ohne www (also, wo sich die Inhalte befinden), gibt es auf dem Server gar nicht. Offenbar gibt es auch keine Zwangsumleitung von https://www auf https://. Versuch das mal entsprechend abzuändern und schau was passiert.
Und noch etwas. Wenn ich das richtig sehe, werden hier mehrere HTTP-Header ausgegeben, einmal 301 und einmal 200 (teils random). Da ist doch irgend etwas nicht richtig eingestellt auf dem Server…
Dass es einzig an der Sitemap liegen soll, kann ich mir nicht so recht vorstellen, allerdings kam justerment heute dazu ein recht interessanter Beitrag vorbeigeschneit. Vielleicht hilft’s ja dem ein oder anderen: