Google Webmaster-Tools - Fehlermeldungen

Hallo liebe Community-Mitglieder, uns zeigen die Webmaster-Tools folgende Fehler an. „Darstellung der Suche > HTML-Verbesserungen > Metabeschreibung > Doppelte Metabeschreibungen 125 Seiten“ (Wir nutzen Shopware 4.2.1) Es ist tatsächlich so, dass der Google-Bot alle Produkte, welche in mehreren Kategorien verlinkt sind, nicht richtig einstufen kann und daher wohl den Fehler ausgibt. Beispiel: domain.de/Kategorie_1/Produkt_a domain.de/Kategorie_1/Produkt_a?[color=red]C=33[/color] Lösungs-Versuch Nr. 1 Den Tip, die „KategorieID aus URL entfernen“ haben wir ausprobiert, jedoch wieder rückgängig gemacht. (zu finden in "Grundeinstellungen > Storefront > SEO-Routereinstellungen) Denn wenn man dann durch die Produkte blättert, springt man zwischen den Kategorien hin und her. Je nachdem in welcher Kategorie das Produkt zuerst angelegt wurde!!! (Das Hat der Shopware-Mitarbeiter weiter oben auch schon beschrieben!) Das kann natürlich für den Kunden etwas verwirrend werden. Lösungs-Versuch Nr. 2 Daher haben wir gerade versucht, alles über die Webmaster-Tools zu lösen. Und ich hoffe wir haben es richtig gemacht??? Unter dem Punkt „Crawling > URL-Paramater“ sind einige Parameter aufgelistet, die dem Google-Bot wohl probleme bereiten könnten. Hier haben wir den Parameter „C“ näher angeschaut! Geht man bei diesem Parameter auf „Bearbeiten“ kann man dem Bot sagen, wie er sich verhalten soll. Automatisch wird die Entscheidung dem Bot überlassen. Da diese jedoch offensichtlich Probleme hat, wurde jetzt folgendes eingestellt. Unter: Ändert dieser Parameter den Seiteninhalt, der dem Nutzer angezeigt wird? Haben wir ausgewählt: „Nein: Hat keinen Einfluss auf den Seiteninhalt“ Man kann sich auch „Beispiel-Urls“ anzeigen lassen. Hier kann man dann genau die Urls sehen, die zuletzt Probleme gemacht haben. Bei uns tauchen eben genau diese Urls wie oben beschrieben auf. Ich hoffe ich habe das richtig eingestellt? Vielleicht kann uns das jemand mit dem gleichen Problem bestätigen? Ich freue mich auf Eure Antworten und hoffe ich konnte allen mit dem gleichen Problem helfen. Viele Grüße

Kurzes Update: Der Google-Bot war mittlerweile da… Was hat sich geändert?: 1. Bei vielen Produkten hat er erkannt, dass wir den Parameter “C” ausgeschlossen haben. Doch leider listet er jetzt die Produkte trotzdem doppelt auf, nur ohne den Parameter “C” am Ende der URL !!! Der Fehler “doppelte Meta-Beschreibung” wird trotzdem angezeigt. Zur Erinnerung: Der Fehler kommt bei allen Produkten, die wir in zwei oder mehreren Kategorien verlinkt haben! Eigentlich sollte der Bot das doch erkennen, da hier von Shopware aus eine “Kanonische URLs verwendet” ??? 2. Obwohl wir die Filter-Anzeige für Hersteller im Backend ausgeschaltet haben wird dieser Filter weiterhin angezeigt. Und somit auch der Fehler der doppelten Metabeschreibung für alle unsere Hersteller. Ich würde mich sehr freuen, wenn hier jemand einen Rat hat!!!

Genau das gleiche Problem habe ich auch. Da alle Ansätze in den Webmaster Tools keine Wirkung zeigen, bin ich nun dazu übergegangen, das zu ignorieren. Ich habe alle Parameter mit c, p oder dergleichen gesperrt und trotzdem erscheinen die immer und immer wieder in den doppelten Metabeschreibungen. Ich glaube, da muss man bei Google direkt in der Sparte eine Ausbildung oder Studium machen, um dahinter zu steigen. Gruß Gesendet von meinem GT-I9100 mit Tapatalk 2

Hast du es schon einmal über die robots.txt versucht ? Hier bspw. ein Ansatz: http://stackoverflow.com/questions/9149 … parameters

Hallo kayyy, also, ähhh, nein, noch nicht über robots gesteuert, guter Ansatz :thumbup: Stellt sich mir nur die Frage, wie und was kann ich disallow-en? Sollte z.B. jede Seite einer Kategorie, also: ?p=2, ?p=3, die Anzeige der Artikel auf einer Seite: ?sPage=1&sPerPage=24, der berühmt berüchtigte Parameter: ?c=8, dieser hier: ?p=1&s=3, der hier: ?p=1&l=list und den habe ich auch noch: ?p=1&f=1 da rein? Danke und Gruß Frank

Hallo Frank, könntest du mal den Link zum Shop Posten ?

Hallo Leute, das ganze über die robots.txt auszuschließen finde ich auch super! Denn dann halten sich auch andere Suchmaschinen dran :thumbup: [color=blue]Shopware hat standardmäßig diese robots.txt: Disallow: /compare Disallow: /checkout Disallow: /register Disallow: /account Disallow: /merkzettel Sitemap: http://www.mustershop.de/sitemap.xml[/color] Wäre schön, wenn von Shopware aus jemand eine neue erweiterte robots.txt hier posten könnte. Das wäre doch der einfachste Weg. Schließlich betrifft dies offensichtlich alle Shopware-User. Es sei denn, Shopware hat sich hierüber schon viele Gedanken gemacht und das ganze bewusst so eingeführt. Dann wäre trotzdem ein kleiner Tip von Shopware schön, damit wir wissen, wie wir das Thema angehen sollen. Freue mich über eure Antworten Viele Grüße

[quote=“kayyy”]Hallo Frank, könntest du mal den Link zum Shop Posten ?[/quote] Hallo kayyy, die Webseite ist in meinen Profil. Gruß Frank

Hat niemand eine Idee??? Das Problem haben doch bestimmt alle hier! Würde mich über eure Tips freuen :thumbup:

Hallo, das Problem kenne ich selber so gar nicht. Wir haben im Wiki einige Hinweise zu Einstellung bei Google. Grundsätzlich ist es so, dass bei bestimmten Parametern immer automatisch ein noindex gesetzt wird, z.B. bei weiteren Seiten oder gesetzten Filtern. Aber dennoch dürfen diese gecrawlt werden. EUR wollen ja das Googlr auch alle Artikrl findet :slight_smile: nur halt im Index von Google wollen wir keine Seiten mit gesetzten Filtern haben. Bzgl. Duplicate Content gibt es ja speziell den Canonical Tag. Artikel bekommen, wie oben schon beschrieben, extra einen c parameter. So kann die korrekte Kategorie und Breadcrumb dargestellt werden und beim Blättern springt man nicht hin und her. Der c parameter wird aber immer herausgefiltert und auch der canonical verweist sauber. Den c Parameter sollte man Google aber nennen. Generell wüsste ich jetzt so nicht, wo da ein Problem auftreten kann, bzw. habe ich das auch bei meinen eigenen Shops bisher nicht. Schau doch noch mal in diesen Artikel: http://wiki.shopware.com/Einbindung-von … _1009.html Sebastian PS: viele weitere Tipps stehen auch im Seo Guide im Wiki