Cronjobs

Hallo hoffe mir kann einer weiter helfen.

und zwar habe ich meinen shop bei profihost.

So ich habe alle plugins für cornjobs installiert. 

was muss ich machen das diese funktionieren. 

zb diesen hier RefreshSeoIndex

was muss ich bei profihost bei cronjobs hinterlegen damit dieser gestartet wird.

 

Einstellungen -> Grundeinstellungen -> Cron-Sicherheit : Einen Schlüssel hinterlegen!

Dann bei bei deinem Hoster einen Cronjob anlegen der alle 15 Minuten die URL: https://deinenShopDomain.de/backend/cron?key=DeinGültigerSchlüsselAusConfig

aufruft.

Fertig.

1 „Gefällt mir“

Hallo matthias,

vielen vieln Danke für dein Antwort. 

eigentlich alles klar nur zur sicherheit also genau so wie Sie es hier geschrieben haben nur am schluss mit meinen hinterlegten Schlüssel aus Cron-sicherheit.

Oder muss ich jeden cron einzeln ansteuern.

so habe das jetzt gemacht wie oben beschrieben cron von profihost möchte zugreifen

schreibt aber jetzt das per mail

500 Can’t connect to promoprintstore.at:443

lest hier vielleicht auch eine Firma oder freelancer mit der das einrichten kann für mich ? 

Ich glaube da fehlt es mir einfach an verständnis… 

Hab schon zig sachen probiert aber nichts geht.

auch nach der google eintragung das mir die seite gehört kann er nicht finden beim testen beim robots.txt tester

Seitmap test mit der seitmap.xml schreibt er mir URL durch robots.txt eingeschränkt.

event kann hier mir wer ich sag mal so :slight_smile: idoten sicher aufzählen was ich machen sollte oder gern eine Agentur oder freelancer.

oder auch emphelungen wo ich mich melden kann die da gut drauf sind und mir nicht die 100€ aus der Tasche ziehen für paar einstellung 

 

Logisch, du hast kein SSL Zertifikat, für Shopbetreiber von heute eigentlich ein absolutes NoGo!

https://promoprintstore.at/ Diese Verbindung ist nicht sicher

Du musst die URL dann ohne “https” aufrufen, also nur mit http://

In meinem Beispiel ging ich davon aus, das jeder Shopbetreiber heutzutage eigentlich seinen Shop über SSL absichern sollte, das ist Pflicht!

1 „Gefällt mir“

ja https kommt noch dazu warte noch grade auf ID bestätigung - wollte halt alles mal so einstellen das der shop schon so eingestellt ist das ich mich um artikel kümmer kann.

das https habe ich auch grade gehsen *gg* ich hoffe jetzt  gehts.

Vielleicht kannst du mir auch sagen die roobots.txt kann nicht gelesen werden. 

ich schätze hier gehört auch noch was rein.

User-agent: *
Disallow: /

beim test haut er Disallow:/ rot raus 

yes danke danke Matthias cron läuft perfekt 

echt grosses danke schön an dich 

5 min fertig :-) 

bist du auch nur shopbetreiber oder arbeitest du als programierer? 

Scheinbar wurde deine robots.txt Dateieinträge geändert und sind nicht Standard. Hier mal schauen: https://blog.mattionline.de/shopware-robots-txt-bearbeitenandern/

Ich bin Shopbetreiber und habe auch Kenntnisse in Sachen Programmierung.

1 „Gefällt mir“

also ich kann leider die Datei nur mal per ftp runterladen und mit note aufmachen - profihost hat keinen online dienst wo man direkt draufgreifen kann - oder ich finde ihn nicht kann auch sein :frowning:

{block name=„frontend_robots_txt_user_agent“}
User-agent: *
{/block}

{block name=„frontend_robots_txt_disallows“}
Disallow: {url controller=compare fullPath=false}

Disallow: {url controller=checkout fullPath=false}

Disallow: {url controller=register fullPath=false}

Disallow: {url controller=account fullPath=false}

Disallow: {url controller=note fullPath=false}

Disallow: {url controller=widgets fullPath=false}

Disallow: {url controller=listing fullPath=false}

Disallow: {url controller=ticket fullPath=false}
{/block}

{block name=„frontend_robots_txt_allows“}
Allow: {url module=widgets controller=emotion fullPath=false}
{/block}

{block name=„frontend_robots_txt_sitemap“}
Sitemap: {url controller=index}sitemap.xml
{/block}

{block name=„frontend_robots_txt_sitemap_mobile“}
{if {config name=mobileSitemap}}
Sitemap: {url controller=index}sitemapMobile.xml
{/if}
{/block}

ich denke mal das sind die standard einstellungen von Shopware ich lese hier immer block raus ist das der grund ?

in der search console von google steht  User-agent:* 2 zeile disallow: / (nur mal so gefragt im google mus ich nichts eintragen oder?) und wann ich einen test mache geht es auf block. 

kann das sein das ich das nur in der google konsole eintragen muss die werte aus deinem link?

weil das sind ja die sachen die man in der regel nicht von google Crawlen läst

Nein, das muss bei Goggle nicht eingetragen werden, da google sich hier die Daten selbst aus der robots.txt holt.

Hallo, ich habe bei Cron-Sicherheit nichts hinterlegt. Muss dort ein Schlüssel eingetragen werden?

Hallo,

nicht zwingend - es ist jedoch ein erweiterter Schutz, damit nicht jeder Internet User Deine Shopware Cronjobs starten kann durch Aufruf der URL http://www.deinshop.de/backend/cron

Falls Du keinen Cron-Key hinterlegt hast, lautet der Aufruf für einen serverseitigen Cronjob, der den Shopware Cronjob “anschubst” z.B.

wget -q http://www.deinshop.de/backend/cron

Danke, mein Shop läuft auf SSL, das Ausfürhen des Cronjobs über die URL funktioniert bei mir nicht.

Mit SSL funktioniert das genauso, insofern Dein SSL Zertifikat ok ist.

Aufruf entsprechend z.B. mit https anstelle von http:

wget -q https://www.deinshop.de/backend/cron

Prüfe auch mal, ob Du überhaupt das Cron Plugin im Plugin Manager aktiv hast.

Hallo trendgarne es läuft auch mit https.

in Shopwar hinterlegst du einfach einen „schlüssel“ deiner Wahl zb. trendgarnecronshopware1584

dann zum hoster rein cornjobs

https://deinedomain.at/backend/cron?key=trendgarnecronshopware1584

im Verlauf zu sehen matthias hat mir hier geholfen meine crons zum laufen zu bringen.

 

Dankeschön

aso ja und genau wie aixpro schreibt -

das war auch einer meiner fehler die plug ins von cron die habe ich auch nicht aktiviert gehabt.