SEO-Noindex für alle Seiten

hi,

ich bin gerade dabei, einen shop aufzubauen. dieser liegt aktuell noch auf einer subdomain. während ich daran arbeite, möchte ich das gerne ohne bestellungen tun. jetzt hat tante goggles aber schon vorbeigeschaut und sehr viel indexiert. doof. meine überlegung war, via robots.txt kategorisch ‚nein, nein, nein‘ zu sagen. aber a) ist die robots.txt eher eine bitte als eine regel und b) bekomme ich die seiten nicht mehr aus dem index, wenn ich verhindere, dass der crawler ein „noindex“-tag auf meiner seite findet.

kann ich einen parameter in die folgende zeile setzen?

SEO-Noindex Querys: sPage,sPerPage,sSupplier,sFilterProperties,p,n,s,f

und wenn ja, welchen?

gibt es möglicherweise eine andere lösung, mit der ich auch nebenher an der seite weiterarbeiten kann (und ggf. auch mal ein eigenes crawler-tool drüberschicken kann, um evtl kaputte links zu finden?)

ich danke im voraus für eure konstruktiven ideen und lösungen! =)

Evtl einfach htaccess Login davor schalten

ich recherchiere gerade dahingehend. 

Order deny,allow

Deny From all

Allow from (meine ip)

Muss da noch was drum oder geht das so nackt, wie es da steht?

Hallo,

warum den Shop nicht einfach in den Wartungsmodus setzen?!

Sebastian

1 „Gefällt mir“

ha - so erschreckend einfach. wartungmodus aktivieren cache leeren und ausloggen -> dann sieht man, was jeder andere und google wohl auch sieht. hatte das vorher vergessen und mich geärgert, dass der wartungsmodus so gar nichts bewirkte =)