da wir gerade ganz viel an der Struktur ändern,wäre es gut,man könnte vorübergehend googl e sagen,nicht crawlen
wie geht das?
Google schreibt das so?
Wie kann ich das Crawling meiner Website vorübergehend komplett aussetzen?
Sie können das Crawling vorübergehend komplett aussetzen, indem Sie für URLs, auch für die robots.txt-Datei, den HTTP-Ergebniscode 503 zurückgeben. Es wird in regelmäßigen Abständen erneut versucht, die robots.txt-Datei abzurufen, bis der Zugriff wieder möglich ist. Wir raten davon ab, das Crawling über Ihre robots.txt-Datei zu unterbinden.
Kann mir einer sagen,wie und wo ich das umsetten kann?
Wenn man den 503 nicht selber erzeugen kann dann spricht man mit dem Provider. Disallow: / in der robots.txt ist falsch. Das führt nur dazu das die komplette Seite aus dem Index genommen wird. Ansonsten sind Änderungen an Webseiten normal und Google kann damit umgehen.