Für HttpCache automatisch alle Seiten crawlen lassen

Schönen Abend im Forum hier. Ich komme von Magento, da hatten wir einen Pagecache von Extendware, der mit dem „Cache Warmer“ z.B. täglich alle Seiten automatisch crawlte und damit cachte. Jetzt bin ich aktuell bei Shopware bei Kategorieänderungen, Tests, usw. relativ oft gezwungen, den Cache zu löschen. Dann geht das Cachen wieder von vorne los, was bei nur mittelvielen Kunden und Subshops ewig = tagelang dauert. Wenn es schon kein Plugin diesbezüglich gibt: Kennt Ihr externe Tools oder Skripte, die nix anderes machen, als z.B. über einen Cronjob gesteuert, einmal am Tag alle Seiten aufrufen, damit sie gecached werden? Oder kann mir wer so ein Skript schreiben? Danke für Eure Hilfe.

Hallo, wir wollen sowas generell integrieren. Das ist für den Standard gedacht. Genauen festen Termin für die Erweiterung gibt es aber noch nicht. Evtl. aber im nächsten bzw. übernächsten Update. Das nur als Info vorab. Aktuell gibt es da soweit ich weiß noch keine andere Lösung. Vom Prinzip her müsstest du alle Seiten z.B. aus der sitemap.xml aufrufen lassen. Das müsste man dann in ein script packen oder du nutzt irgendein Crawling-Tool. Sebastian

Hallo Sebastian. Danke für die Info. Wenn das sicher mal für ein Update gedacht ist kann ich warten. Hauptsache Ihr wisst von dem Problem, dann ist´s gut. Nach vielen Jahren Magento mit 100 Plugins und mindestens 1000 Problemen setzte ich lieber auf supportete Hersteller-Lösungen. Danke.

Falls du eine schnelle Lösung suchst: gehe durch alle Links in der sitemap oder in der s_core_seo_urls und rufe sie zb mit file_get_contents(). Prinzipiell eine recht simple Geschichte. Viele Grüße

Ich nutze dafür http://phpcrawl.cuab.de/.