Google WMT Meldung: Googlebot kann nicht auf ... zugreifen

Hier mal die komplette Meldung von Google: [quote] Die Google-Systeme haben kürzlich ein Problem mit Ihrer Startseite festgestellt, das sich auf das Rendern und Indexieren Ihrer Inhalte durch unsere Algorithmen auswirkt. Der Googlebot kann aufgrund von Beschränkungen in Ihrer robots.txt-Datei nicht auf Ihre JavaScript- und/oder CSS-Dateien zugreifen. Anhand dieser Dateien kann Google feststellen, ob Ihre Website ordnungsgemäß funktioniert. Wenn Sie den Zugriff auf diese Dateien blockieren, kann dies zu schlechteren Rankings führen. Sie können dieses Problem wie folgt beheben: 1 Blockierte Ressourcen identifizieren Identifizieren Sie mithilfe der Funktion „Abruf wie durch Google“ diejenigen Ressourcen, die von den robots.txt-Anweisungen blockiert werden. „Abruf wie durch Google“ ausführen 2 robots.txt-Datei aktualisieren Entfernen Sie die Beschränkungen bezüglich Ihrer CSS- und JavaScript-Dateien aus Ihren robots.txt-Anweisungen und testen Sie die Änderungen mit dem robots.txt-Tester. Aktualisieren Sie anschließend Ihre überarbeitete robots.txt-Datei auf Ihrer Website und senden Sie sie an die Search Console. robots.txt testen 3 Korrektur mithilfe von „Abruf wie durch Google“ prüfen Aktivieren Sie vor dem Abrufen und Rendern Ihrer Seite die Option „Mobile: Smartphone“. So können Sie überprüfen, ob der Googlebot für Smartphones Ihre Inhalte korrekt rendert. „Abruf wie durch Google“ ausführen Sie haben Fragen zur Problembehebung? Weitere Informationen • Anleitung zum Testen Ihrer robots.txt-Datei in unserer Hilfe • Google-Leitfaden zur Erstellung einer für Mobilgeräte optimierten Website • In unseren robots.txt-Spezifikationenerfahren Sie, wie Sie steuern können, welcher Crawler auf welche Dateien zugreifen kann. • Sie können die Indexierung Ihrer Seiten in Google verhindern, indem Sie Robot-Meta-Tags oder X-Robots-Tag-HTTP-Header verwenden. • Stellen Sie Fragen in unserem Forum, wenn Sie weitere Hilfe benötigen. Geben Sie hierbei den Nachrichtentyp [WNC-658001] an. [/quote] Die betroffene URL lautet [quote]… /w​idg​ets​/in​dex​/re​fre​shS​tat​ist​ic?​req​ues​tPa​ge=​/&r​equ​est​Con​tro​lle​r=i​nde​x&s​ess​ion​-1=​1ab​0dc​25b​dad​393​b9b​af6​fb8​5d6​fe2​1d2​a25​afc​0&c​all​bac​k=j​Que​ry1​910​165​985​022​904​351​35_​143​810​134​762​3&_​=14​381​013​476​24[/quote] Klickt man den Link an, wird eine weiße Seite angezeigt. Da sich die Session-ID beim Testen ändert, habe ich die Befürchtung, dass wir Tausende von neuen Seiten haben werden, die alle leer sind, wenn ich den Eintrag aus der robots.txt entferne. Habe das Gefühl, wir drehen uns im Kreis.