oekobabyoekobaby MitgliedKommentare: 1 Danke erhalten: 0 Mitglied seit: Februar 2016

So liebe Shopware leute,

da wir gerade ganz viel an der Struktur ändern,wäre es gut,man könnte vorübergehend googl e sagen,nicht crawlen

wie geht das?

Google schreibt das so?

Wie kann ich das Crawling meiner Website vorübergehend komplett aussetzen?

Sie können das Crawling vorübergehend komplett aussetzen, indem Sie für URLs, auch für die robots.txt-Datei, den HTTP-Ergebniscode 503 zurückgeben. Es wird in regelmäßigen Abständen erneut versucht, die robots.txt-Datei abzurufen, bis der Zugriff wieder möglich ist. Wir raten davon ab, das Crawling über Ihre robots.txt-Datei zu unterbinden.

Kann mir einer sagen,wie und wo ich das umsetten kann?

Herzlichen dank

andrea

Antworten

  • brettvormkoppbrettvormkopp MitgliedKommentare: 1297 Danke erhalten: 275 Mitglied seit: März 2013

    robots.txt

    User-agent: *
    Disallow: /

     

    Danke von 1oekobaby
  • oekobabyoekobaby MitgliedKommentare: 1 Danke erhalten: 0 Mitglied seit: Februar 2016

    ok danke werde ich gleich machen

    und ich hab noch eine.

    Hersteller SEO-URLs

    Wir möchten gerne dass unsere Hersteller-URLs so lauten:

    xydomain.com/marke/HERSTELLERNAME

    und nicht

    xydomain.com/listing/manufacturer/sSupplier/27

    Wie stellt man das genau in SEO-Router Einstellungen ein, auch damit dieses u.a. im Einkaufswelten-Hersteller-Slider richtig hinterlegt ist!

  • beatbeat MitgliedKommentare: 92 Danke erhalten: 8 Mitglied seit: März 2017

    Wenn man den 503 nicht selber erzeugen kann dann spricht man mit dem Provider. Disallow: / in der robots.txt ist falsch. Das führt nur dazu das die komplette Seite aus dem Index genommen wird. Ansonsten sind Änderungen an Webseiten normal und Google kann damit umgehen.

     

Anmelden oder Registrieren, um zu kommentieren.