wie kann denn das angehen das bei Google plötzlich andere Artikel-Ids in der URL sind?
Google meldet Crawling-Fehler, jeden Tag werden es mehr, heute schon über 600.
das kann natürlich schon vorkommen, wenn z.B. Artikel neu per Import in den Shop kommen.
Die ID ist ja fortlaufend und wenn der Artikel oder auch eine Kategorie entfernt und durch Import wieder in den Shop kommt, dann bekommen diese immer eine neue ID.
Man müsste also wissen, welche Prozess bei dir im Shop laufen.
Von alleine kann das nicht passieren. Das ist ausgeschlossen
aber wie kommen die Artikel in den Shop? Gibt es eine Schnittstelle, Wawi, Import/Export?
Die Änderungen darüber kann man ja nicht zwingend nachvollziehen in der Datenbank, außer das die Artikel eine neue ID bekommen
Die ID kann sich eigentlich nur durch Importe/Schnittstellen ändern. Das kann Shopware selbst nicht.
die Artikel kamen am 30.08.2016 in den Shop per API Import. Hatte mir ein Programm geschrieben welches die Artikel aus dem bestehenden Shop nach Shopware per API kopiert. Jetzt kommen nur noch ab und zu 3-8 Artikel alle zwei Tage ebenfalls per API in den Shop nämlich immer dann wenn neue im alten Shop angelegt werden.
Laut Datenbank ist die erste Artikel-Id die 1045 und die heutige letzte die 4976.
Das fängt warscheinlich deshalb nicht mit 1 an weil ich vorher ein paar Import-Tests gemacht habe und diese Artikel dann im Backend wieder gelöscht habe.
ja und scheinbar sind genau diese Import-Tests zu Google gekommen und Google hat daher alles alte URLs.
Sind die Sitemaps denn jetzt passend/aktuell? Oder liegt ggf. bei dir im Verzeichnis eine alte Sitemap physikalisch, so dass Shopware keine neue automatisch erzeugen kann?
aber wie sollen die zu Google gekommen sein? Ich hatte bis zum öffentlichen Start eine .htaccess Sperre davor!
Die Sitemaps sind aktuell, die werden doch dynamisch erzeugt oder?
aber wie sollen die zu Google gekommen sein? Ich hatte bis zum öffentlichen Start eine .htaccess Sperre davor!
Das kann ich leider nicht beantworten. Dazu hätte man das vorher prüfen müssen. Irgendwie hat Google die Infos bekommen. Entweder Sitemap oder durch das Crawlen der Seite (wie auch immer). Das kann man so nicht beantworten. Da wird man das jetzt so bei Google bereinigen und neu indexieren müssen.
Die Sitemaps sind aktuell, die werden doch dynamisch erzeugt oder?
Genau - die sind aktuell. Man kann aber auch immer eine eigene in das Verzeichnis legen, dann würde Google die manuelle Datei ziehen.
ok, ich danke dir für deine Überlegungen. Tatsächlich muss Google den Shop besucht haben als ich zum Test der API mal für etwa 3 Stunden das htaccess ausgeschalten hatte
Du kannst Dir die URLs, die Google nicht findet, aber in der Datenbank, Tabelle s_core_rewrite_urls, speichern und der aktuellen URL zuordnen, dann laufen sie nicht ins leere.