Seo Router muss ständig Datum gelöscht werden

Beim Blog muss ich ständig wieder auf die Seo Router Einstellungen gehen und Datum und Uhrzeit löschen damit die Seo Url zum Artikel mit Namen generiert wird. Das Problem gab es in einer früheren Version bereits.
Ich benutze aber eine aktuelle 5.2.9
Woran kann das liegen?

Nachdem du den Cache geleert hast gehst du einfach unter Caches Performance / Einstellungen auf die Kategorie SEO und klickst auf Seo Index neu aufbauen. Dann wird es aktualisiert.

Das geht recht schnell, wenn man eh schon im Cache Bereich ist.

Dann braucht man nicht mehr unter Grundeinstellungen - Storefront -  Seorouter die Aktualisierung auslösen.

Viele Grüße

Matthias

 

Ist aber eindeutig ein Fehler. Vergißt man das, wandern u.U. falsche URls in den Index.
Komisch ist das dies nur beim Blog immer noch so ist. Bei Kategorien einmal die Uhrzeit,Datum weg und da klappt es. Beim Blog muss ich jedes mal auf die Einstellungen.
Mal sehen ob es jetzt besser ist. Habe die Haken mal so gesetzt wie Du gesagt hast und die Cachedauer runtergesetzt.
Nachtrag:
Einstellungen gemacht wie Du gesagt hast. Keine Besserung.
Nach erstellen Blogartikel muss ich auf Einstellungen-Seo-Router, Datum-Urtzeit raus, speichern und cache leeren, dann erst ist richtige URL vorhanden.
Wäre nicht weiter schlimm, habe nur Bedenken wenn man es mal vergißt. Kann man die Uhrzeit und Datum nicht raushacken? :slight_smile: Dann sollte das Problem hoffentlich weg sein.
Einstellungen unter Cache Performance müssen auch jedes mal neu gesetzt werden. Haken sind nach neuem Aufruf auch wieder weg. Soll das so sein?
 

Ich kann Deine Probleme durch die Bank nicht nachvollziehen.
Hier greifen zwei Dinge: Die SEO-Url und der Cache.
Selbst wenn irgendwann intern die Url generiert wurden, muss dennoch einmal - per Cron oder so - der Template-Cache geleert werden, weil in dem ja - sonst macht ein Cache keinen Sinn - der Seiteninhalt gecached ist, inkl. alter Urls.
Also Logik: SEO-Index aufbauen, danach Cache leere. Das geht sowohl manuel, als auch per Cron - wenn man die Reihenfolge beachtet.

Auch wenn Shopware einige Macken hat, Deine Unmengen an Problemen verorte ich doch eher vor dem Bildschirm *sorry*

Die Denkweise kann ich nicht nachvollziehen. Wenn Du nämlich ein paar Hundert Blogartikel erstellst und dann einmal den Seo Index aufbaust wie Du es beschreibst kann es passieren das in der Zwischenzeit google bereits die falschen Urls aufgenommen hat und später Inhalte unter 2 URLs im Index hat, zumindest eine Zeit lang.
Ich denke nicht das dass Problem vor dem Bildschirm ist. Warum wird das immer gleich vermutet wenn man auf Fehler stößt die da sind und kein Einzelfall zu sein scheinen (such mal im Forum), Das Problem gab es wohl schon öfters :slight_smile: Nicht nur bei mir. Woher wüßte ich sonst das man Datum und Uhrzeit löschen muss? :wink:
Und ich habe gerade noch etwas festgestellt. Hast du 2 unterschiedliche Artikel aber mit gleichen Namen wird für einen überhaupt keine seo Url erstellt. Man muss dann den Namen abändern. Eigentlich klar weil die URl eindeutig sein muss. Bei vielen Artikeln kann das dennoch mal passieren und da wäre das anhängen einer Zahl (für den Fall) nicht schlecht.
 

Im Standard steht die ArtikelID in der URL, damit die URL eindeutig ist. Das ist also definitiv kein Problem im Standard.

Ich weiß. So: http: //mein.de/127/artikelname  zb.
Sieht so aus wie in einem Verzeichnis. Anhängen geht sicher auch. Ist mir eben durch den Umstand das ich 2 Artiekl mit gleichen Namen hatte aufgefallen. Weil dafür keine Seo Url generiert wurde. Habe dann eben den namen erweitert und paßt. Muss man sich halt merken immer auch noch nach artikeln suchen damit man nicht einmal den gleichen namen vergibt.

Sonic: Danke. Hättest erwähnen können das man erst das Cron Plugin installieren, aktivieren und dann unter Einstellungen/Grundeinstellungen/System/Cronjobs einstellen muss.
 

@shopwaredummy schrieb:

Sonic: Danke. Hättest erwähnen können das man erst das Cron Plugin installieren, aktivieren und dann unter Einstellungen/Grundeinstellungen/System/Cronjobs einstellen muss.
 

Warun sollte sonic darauf hinweisen können, steht doch alles in der Doku, wer zu faul zum lesen ist…

Weil das eben nicht in der Doku steht.

Zum nachlesen:

Da steht lediglich etwas davon das die Cachezeit für Tabellen eingestellt werden kann. Nix davon das man für das ständige Aktualisieren erst das Cron Plugin installieren muss, diesen dann aktivíeren und wo man die Einstellungen auch noch findet.

Ich schaue schon in der Doku nach. Nur wenn Sachen nicht ganz eindeutig sind oder schlichtweg fehlen kann man ja mal fragen. Wenn ich nach SEO Urls generieren suche komme ich wohl kaum auf die Anleitung für einen Cronjob. Und mal ehrlich selbst mein 14 Jahre alter Shop hat das voll automatisch gemacht. Das sollte eigentlich Standard sein, das die automatisch generiert werden. Und zwar immer dann wenn z.B. ein neuer Artikel, Kategorie oder sonstwas erstellt wird. Wenn das einen Shop zu sehr belastet, na dann…  Es ist zweifellos ein tolles System mit vielen Möglichkeiten. Bei grundsätzlichen Dingen hapert es noch. Wenn alles so eindeutig wäre, würde ich kaum ständig fragen. Dann ist es wohl doch nicht so eindeutig.
Ich bin jetzt seit über 4 Wochen am lesen und dennoch suche ich immer noch einige grundlegende Dinge die nirgends erwähnt oder erklärt werden. Und wenn man mal fragt dann heißt es erstmal lesen.

Das muss man auch nicht 

Cronjob ist optional… Das steht in der Doku zum Cache und zu den Cronjobs 

Im Standard ist die Cachingzeit auf 24h eingestellt. Das heißt, das nach Ablauf der 24h automatisch alle neueren URLs automatisch erzeugt werden. 

Manuell muss man da erstmal nix machen - außer man will die URLs als Seo URL direkt im Frontend haben. Dann muss man den Cache manuell leeren.

Dazu reicht in der Regel einfach das Cache Modul zu öffnen. Haken setzen bei „Index Seo URLs“. Cache leeren fertig. Dann werden neuere URLs beim Aufruf der Frontend automatisch erzeugt. 

Alle URLs kann man auch neu erzeugen. Generell aber nicht notwendig. Außer man hat den URL Aufbau geändert und alle URLs sollen aktualisiert werden - das geht auch im Cache Modul unter den anderen Reiter im Punkt SEO (nur für den Prozess mussten man früher das Datum entfernen)!

Sebastian

Dann sollte man das evtl. in die Doku für Seo Urls aufnehmen. Ohne den Hinweis oben auf den Cronjob wäre ich nicht darauf gekommen.
Das Datum und Uhrzeit muss nach wie vor auch unter Einstellungen/Grundeinstellungen seo/Router entfernen, ansonsten nix mit neuer url. (Version 5.2.9)
Unter Einstellungen Cache/Perfomance Caches/Performance mit gesetzten Haken geht es. Ohne aber auch nicht. Und allein Shop Cache löschen reicht nicht aus.
Setze ich denCron auf 1 min ist er ständig am arbeiten. Da fehlt einfach die Möglichkeit zu sagen das jede Änderung gleich erzeugt wird wenn sie gemacht wird.
Sind die falschen URLs erst mal im Index braucht google Monate bis die wieder raus sind. Habe immer noch sehr viele vom alten Shop im Index und habe mir sogar die Mühe gemacht die via htaccess zu den neuen Urls umzuleiten damit es schneller geht. Ist bei vielen Einträgen auch viel arbeit. Das will ich gleich vermeiden.

Warum hätte ich hier auf irgend etwas hinweisen sollen , somal mir nicht wirklich das Problem ersichtlich war / ist.
Ich bin hier auch nicht der Dokuvorleser - also das audiobook von “Shopware for dummies”.
Seit zwei Jahren beschäftige ich mich, neben meinen anderen Aufgaben in unserer kleinen Firma, auch mit Shopware für die eigene Anwendung - und wenn ich mal nicht weiter komme, benutze ich Google, das Forum oder die Doku. Ich bin also kein Experte, sondern Autodidakt, ich bin kein Supporter von Shopware. Ich habe hier im Forum einiges “bekommen”, und gebe - überwiegend in meiner Freizeit - wenn es geht auch wieder etwas zurück.

Viele Deiner Probleme lösen sich von selber, wenn Du mal ab und an die Doku oder die Suche benutzen würdest. Wenn Du selber nicht 1&1 zusammenzählen kannst, bist Du mit Shopware überfordert…

RTFM

Als wenn sich google an den  revisit metatag von 14 Tagen halten würde. 1x am Tag ist google min. da. zumindest bei mir. Da kann ich bald wieder haufenweise URLs umleiten.