nach Umzug zu SW über 2000 Seiten aus dem Index verschwunden

Hallo,

vor gut 5 Monaten ist mein Shop von einem anderen System zu SW “umgezogen”. Die URLs wurden weitgehend übernommen oder per 301 umgeleitet. Zum Tag der Umstellung waren 2400 Seiten im Index, heute sind es noch 200.

Dass eine Seite nach der Umstellung von google neu bewertet wird und im Ranking verlieren kann, ist bekannt. Dass die Seiten allerdings ganz aus dem Index verschwinden ist eine mittlere Katastrophe. Da könnte ich nur den Rückschluss ziehen, dass die neuen Seiten inhaltlich oder technisch deutlich schlechter sind, als die des alten Systems.

Inhaltlich sollte sie eigentlich besser dastehen, da die größeren Mengen an DC (Artikelbeschreibung, Titel, Description) nun beseitigt sind.

Die Seiten werden alle richtig gerendert. Ich wüsste nicht, wo ich das Problem suchen sollte. Hat hier jemand Erfahrungswerte?

LG

Wenn du kein Geheimnis um deine URL / Shop / Webseite machen würdest und uns die URL mitteilst, dann könnte man ja mal bei google schauen wie es um den Index steht.

Aber so, ist nur Sternegucken angesag jedoch ist der Himmel heute bewölkt.

posten möchte ich die Domain hier nun nicht unbedingt :slight_smile:

Aber ich habe inzwischen drei versch. Informationen/Angaben:

über site:Domain bei Google sind es 905 Ergebnise

In den Webmastertools unter Sitemap sind 2072 von 2128 indexiert

In den Webmastertools unter Indexierungsstatus zeigt das Diagramm die erwähnten 2000 nochwas zum Umstellungszeitpunkt und ca. 200 heute.

Bisher hab ich immer bei der Sitemap reingeschaut und war dann relativ zufrieden :slight_smile: Die zurückgehenden Besucherzahlen habe ich auf schlechteres Ranking zurückgeführt.

Welche Angaben da nun zuverlässig sind, weiß der Geier…

 

Hallo,

ja - leider kann man so keine Aussage treffen, außer Vermutungen.
Bei den letzten Fällen, wo mal was in dieser Richtung passiert war, lag es an fehlerhaften Umleitungen. Dann flogen die URLs aus dem Index und wurden nur nach und nach wieder höher gerankt.

Allgemein ist es aber eher meistens so, dass sich das Ranking verbessert - aber auch das kann natürlich einiges Zeit in Anspruch nehmen und auch gewisse Arbeit.
Je nachdem welche Felder gefplegt wurden und ob Google relevanten Content finden kann

Sebastian

Also prinzipiell: Google schmeißt keine Seiten einfach aus dem Index, sofern sie nach wie vor erreichbar sind. Es kann durch eine Umstellung möglicherweise zu einer Abwertung des Rankings  kommen aber nicht zu einer Entfernung.

Ich kann mir unter anderem folgende Szenarien vorstellen:

  1. Redirect der alten URL passen nicht - prüfe, ob die Status der Umleitung auch korrekt sind
  2. Die Bots werden blockiert (z.B. über robots.txt oder über entsprechende Konfiguration des Webservers)
  3. Du erzeugst eine sitemap.xml die explizit nur die 200 Seiten an den Google Index überträgt

Das wäre mal der erste Ansatz mit dem ich beginnen würde…

“Google schmeißt keine Seiten einfach aus dem Index, sofern sie nach wie vor erreichbar sind. Es kann durch eine Umstellung möglicherweise zu einer Abwertung des Rankings  kommen aber nicht zu einer Entfernung.” -> Das war auch mein Kenntnisstand.

Zur Sitemap:
Laut Webmastertools wurden mit der Sitemap von 2128 URLs eingereicht. Davon sind angebl. 2072 indexiert (diese Zahl weicht eben von den 200 beim Indexierungsstatus deutlich ab). Als Fehler werden bei der Sitemap 3 Herstellerseiten bemängelt, die nicht indexiert werden können (es gibt insgesamt nur 3 Herstellerseiten).

Zur robots:
Die ist noch im Urzustand, lediglich die pdf wurde noch hinzugefügt:

Disallow: /compare
Disallow: /checkout
Disallow: /register
Disallow: /account
Disallow: /note
Disallow: /widgets
Disallow: /listing
Disallow: /ticket
Disallow: /*.pdf$

301er-Umleitung:
Diese habe ich alle nach Eingabe manuell getestet (ein abendfüllendes Programm :slight_smile: )

 

Was mir jetzt gerade noch einfällt und etwas ungewöhnlich war, ist etwas schwer zu erklären. Ich versuchs…

Mein altes Mietshopsystem hatte bei der Einrichtung zunächst eine IP an Stelle der www-Adresse. Erst nach Hosten der Domain, wurde eine “richtige” URL daraus. Allerdings war der Aufbau der URL dort vor 10 Jahren noch so, wie hier bei SW, wenn nichts nach Wunsch angepasst wird. Vor 2-3 Jahren wurden dann endlich die eigenen Wunschurls möglich gemacht. Lt. Anbieter würde nach Eingabe der eigenen URL die alte per 301 auf die neue umgeleitet. Ich war der Annahme, dass nach 2-3 Jahren die alten bei Google gänzlich verschwunden sein müssten.

Nach Umleiten der Domain auf SW liefen plötzlich Unmengen (1400-1800 etwa) an 404-Fehlern bei den WMT auf. Zum einen waren es diese alten URLs sowie die aus Startzeit mit IP. Da habe ich dann wochenlang geprüft und gesucht und die “guten” per 301 umgeleitet. Die mit der IP konnte ich nicht mehr beeinflussen. Allerdings hätten die auch niemals im Index sein dürfen. Wenn dem aber dennoch so war, hat sich die Zahl der indexierten Seiten zufällig mit der in der Sitemap gedeckt, aber es waren vielleicht gar nicht die aktuellen URLs indexiert. Das lässt sich jetzt nicht mehr nachvollziehen. Inzwischen werden statt 1800 404-Fehlern nur noch 800 angezeigt.

Dann hilft wohl nur Geduld und Hoffen.

 

@Sebastian‍

“Allgemein ist es aber eher meistens so, dass sich das Ranking verbessert - aber auch das kann natürlich einiges Zeit in Anspruch nehmen und auch gewisse Arbeit.”

Das war mein Ziel bzw. der Grund für den Wechsel zu SW. :slight_smile: Dass die Verbesserung Zeit braucht, ist klar. Ein Rausschmiss aus dem Index wäre allerdings übel. SW an sich hat schon so viele Vorteile gegenüber meinem alten System. Bisher habe ich nur einen Nachteil gefunden: Die Bilder-URL :slight_smile:

 

LG

 

 

 

Hab nun gerade nochmal den Indexierungsstatus angeschaut und bin geschockt.

März 2372 (Zeitpunkt der Umstellung aus SW)

April 1324

Mai  880

Juni 851

Juli 851

7.8.  305

28.8.   206

4.9.    79

Das kann nicht mit rechten Dingen zu gehen. Und die Theorie, dass da noch “alte” URLs des alten Systems im Index waren, kann auch nicht passen. Denn ich weiß, dass es mehr als 79 aktuelle URLs waren.

Was tun sprach Zeus?

 

 

Hi,

da müsste man sich echt mal Shop und Domain ansehen.
Da ist definitiv dann irgendwas im Busch. Ggf. gibt es im Quelltext sogar Anweisungen Seiten nicht zu indexieren oder Meta-Angaben sind falsch?!

Müsste man deinen Shop schon kennen.

Sebastian

Hallo Sebastian,

so ist meine robots:

User-agent: *

 

Disallow: /compare
Disallow: /checkout
Disallow: /register
Disallow: /account
Disallow: /note
Disallow: /widgets
Disallow: /listing
Disallow: /ticket
Disallow: /*.pdf$

 

Blockierte Seiten sind von 679 im Juni auf 29 heute gefallen.

Unter site:www.domain.de finde ich deutlich mehr Einträge als 79.

Ich schicke mal die Domain per PN - falls du schauen möchtest :slight_smile: