Fast 1000 Fehler in Webmaster Tools wegen /account/ajax....

Hallo liebe Community… Webmaster Tools die dritte… Leider habe ich seit heute fast 1000 neue Fehler bzgl. fehlender Title Tags… obwohl ich GAR nichts gemacht habe!!! Shop läuft stabil seit 3 Monaten… Alle Fehler sehen so aus: ‎/account/ajax_login‎ /account/ajax_logout?sCoreId=000b8dd26de33dadd449cc4d636a7838‎ ‎/account/ajax_logout?sCoreId=00143bfa48ec6589cc78787713b5e8bd‎ ‎/account/ajax_logout?sCoreId=005276b51b7660bd9fc234bb31fda1e9‎ ‎/account/ajax_logout?sCoreId=005e9744a02c19e4ae43d880c8cda21a‎ ‎/account/ajax_logout?sCoreId=00d5cb73fd08496eb09ed77f1e04fa59‎ ‎/account/ajax_logout?sCoreId=00da644a72165bc9256952b4f78267fb‎ ‎/account/ajax_logout?sCoreId=011a778c243a62e3033c171f7d779ef8‎ usw… ca. 890!!! Wer hat eine Idee??? Kann ich /account blockieren?!? Beste Grüße, Tom

Hallo, hast du den Parameter “sCoreId” in Google zusätzlich geblockt? Du kannst verschiedene Paramter angeben, die von Google nicht extra erfasst werden sollen.

Hallo Sebastian, danke für die schnelle Antwort! Naja… der sCoreID Parameter steht standardmäßig drin seit 3 Monaten mit “Entscheidung dem Googlebot überlassen” Wie soll ich ihn einstellen? Es gibt folgende Auswahl: Ändert dieser Parameter den Seiteninhalt, der dem Nutzer angezeigt wird? 1. Nein: hat keinen Einfluss auf den Seiteninhalt (Beispiel: Nutzungsverfolgung) oder 2. Ja: änder oder sortiert den Seiteninhalt oder grenz ihn ein bei 2. Ja… Wie wirkt sich dieser Parameter auf den Seiteninhalt aus? muss man wählen zwischen “Sortierung, Eingrenzung, Präzisierung, Übersetzung, Seitenauswahl, Sonstiges” und dann muss man noch folgendes anklicken bei Welche URLs mit diesem Parameter soll der Googlebot crawlen? 1. Entscheidung dem Googlebot überlassen (Standard) 2. Jede URL (der Seiteninhalt ändert sich für jeden Wert) 3. Nur URLS mit dem Wert … (kann Inhalte vor dem Googlebot verbergen 4. keine URLs (kann Inhalt vor dem Googlebote verbergen, überschreibt Einstellungen für andere Parameter) Es sind bei mir folgende Parameter angegeben: Parameter überwachte URLs sPage ca. 20.000 RewriteOld ca. 10.000 sCoreID ca. 3.000 c 7 p 180 Alle stehen auf Entscheidung dem Bot überlassen… Leider kamen diese Fehler erst seit heute… bin wohl nicht der einzige denk ich mal… LG, Tomas

Hallo, die Einstellungen müsste ich mir mal im Detail ansehen. Bisher kenne ich das Verhalten so nicht. Für Google werden z.B. alle CoreID standarmäßig deaktiviert. Warum diese bei dir immer erfasst werden kann ich daher auch so nicht sagen. Hast du denn deine Sitemap angegeben bei Google? PS: die CoreID ändert keinerlei Seiteninhalt. Das kannst du also so in Goggle definieren.

Hallo Sebastian, ja die Sitemap ist bei Google angeben unter http://www.domain.de/sitemap.xml Weiterhin habe ich den SEO Einstellungen (Module/SEO) folgendes drin stehen, eigentlich Standard-Einstellungen: SEO-Nofollow Viewports: login,ticket,tellafriend,note,support,basket,admin,registerFC,newsletter,search,search,account,checkout,register SEO-Nofollow Querys: sPage,sPerPage,sSupplier,sFilterProperties,p,n,s,f Query Aliases: sSearch=q, sPage=p, sPerPage=n, sSupplier=s, sFilterProperties=f, sCategory=c, sCoreId=u, sTarget=t, sValidation=v In den Webmaster Tools ist die Entscheidung bzgl. sCoreID dem Googlebote überlassen, wie seit 3 Monaten… seit vorgestern habe ich wie gesagt knapp 1000 fehlende Title Tags für ‎/account/ajax_login‎ ‎/account/ajax_logout?sCoreId=000b8dd26de33dadd449cc4d636a7838‎ ‎/account/ajax_logout?sCoreId=00143bfa48ec6589cc78787713b5e8bd‎ ‎/account/ajax_logout?sCoreId=005276b51b7660bd9fc234bb31fda1e9‎ usw. Ich habe jetzt mal in die robots.txt folgendes eingefügt: Disallow: /account vielleicht bringt es ja was. Bin ich denn der einzige der diese Fehler hat?! Ich habe jetzt bei Google die erste Auswahl genommen, also Nein: ha t keinen Einfluss auf den Seiteninhalt. Im Crawling Modus steht jetzt: „Stellvertretende URL“… Ich kann jedoch für sCoreID auch „Ja: ändert oder sortiert den Seiteninhalt oder grenz ihn ein“ auswählen… und dann bei „Welche URLs mit diesem Parameter soll der Googlebot crawlen“ die Option „keine URLS“ auswählen. Somit werden wohl angeblich alle Inhalte die diesen Parameter beinhalten vorm Googlebot verborgen. Es steht hierbei jedoch, dass dies Einstellungen für andere Parameter überschreibt?!?!? Häääää?!?!? Was habt ihr alle da eingestellt?! Bitte um schnelle Antwort. Thanks! LG, Tom