Shopausfälle nach Cache Leerung - Rewrite Table Klasse

Hallo Community, ich betreue einen Shop mit einem recht großen Artikelbestand. Wir sind kürzlich auf Shopware 3.5.5 migriert und haben seit dem häufiger mit Shopausfällen nach dem Leeren des Caches zu kämpfen. In Kooperation mit dem Hoster haben wir herausgefunden, dass enorm viele Querys auf die Tabelle s_core_rewrite_urls gehen und nach und nach den Server lahmlegen. Als kurzfristige Lösung habe ich die Funktion sCreateRewriteTable() in der Core-Klasse sRewriteTable um die Folgeaufrufe der Unterfunktionen beschnitten - seitdem entstehen die Serverausfälle nicht mehr. Allerdings kann dies ja keine langfristige Lösung sein. Bei der Suche im Forum bin ich schon auf den Vorschlag gestoßen, das im Backend unter Grundeinstellungen -> Module -> SEO das Feld “SEO-Urls Cachezeit Urls” leergelassen werden kann; dies hat allerdings keine Besserung gebracht. Ist dies Problem bekannt - gibt es weitere Lösungsansätze? Vielen Dank, Constantin

Hallo Constantin, das Feld des Update-Datums darf auf keine Fall leer sein, denn dann werden komplett alle URLs nach Leerung des Caches neu erzeugt. Das Datum ist speziell dazu gedacht, dass nur neue Artikel eine SEO-URL bekommen. Das System prüft ab, welche neuen Artikel z.B. hinzugekommen sind seit dem letzten Update. Nur für die werden dann URLs generiert. Falls jedoch durch einen Import o.ä. viele neue Artikel hinzukommen, so müssen u.U. auch viele neue URLs erzeugt werden. Möglich ist z.B. das Datum auf die Nacht zu legen, wenn im Shop nicht viel Traffic ist. So werden die URLs dann nachts geprüft und aktualisiert. Allerdings ist darauf zu achten, wenn man manuell den Cache erneuert wird der Zeitstempel neu gesetzt.

Hallo Sebastian, erstmal vielen Dank für deine Rückmeldung. Ich hatte nicht das Datums-Feld (“Datum des letzten Updates:”) geleert, sondern “SEO-Urls Cachezeit Urls”, da ich es so verstanden hatte dass wenn dieses Feld leer bleibt, die URLs nicht mehr in die Datenbank, sondern den Datei-Cache geschrieben werden. Grundsätzlich ist es bei uns aber auch nicht so, dass häufig viele neue Artikel hinzukommen; wir haben lediglich einen sehr großen Artikelstamm. Aktuell stellt es sich für mich so dar, dass nach Cache-Leerung alle URLs neu erzeugt werden, was aufgrund der Menge der Artikel die Datenbank lahmlegt. Hast du eine andere Idee? Viele Grüße, Constantin