Doppelte Meta Title und Description

Hallo, folgendes Problem: In Google Webmaster Tools unter HTML-Verbesserungen kommen immer mehr Doppelte Meta Title und Description. Es werden Seiten erzeugt wie diese: /Boxsack-Sets?language=de&%3Fper_site=30&?per_site=10 /Boxsack-Sets?language=de&?per_site=100 /Boxsack-Sets?language=de&?per_site=10 Diese Seite beim Afruf sieht aber so aus: http://www.budokatana.de/boxsport-zubehoer/boxsack-sets oder Seiten mit der Endung: ?scoreid=4c4e10e841f9062b0ba76a7563a6fa5a Woher kommen die Seiten, warum werden die erzeugt, wie kann man verhindern dass Google die Seiten mehrfach indexiert. Unter Einstellungen URL-Parameter wurden Einstellungen vorgenommen die nichts mehr bringen. Ich verstehe das nicht, denn seit über 1,5 Jahren ist es ohne Probleme gelaufen, warum jetzt auf einmal gibt es massenweise doppelten Content? - Seo optimal ist das nicht. Wie sieht es bei euch aus, habt Ihr auch solche Probleme?

Hm, nicht viel los hier. Seo Optimierung - eigentlich ein wichtiges Thema. Naja vieleicht traut sich noch jemand.

Hallo, ne ist nicht viel los hier, liegt vielleicht daran, das alles Augenmerk der 4er Version gilt. Vielleicht hilft Dir dieser Beitrag ein wenig weiter forum.shopware.de/administration-f11/doppelte-title-tags-doppelte-meta-descr-d-canonical-tags-t6008.html Grüße Erik!

1 „Gefällt mir“

Danke für den Tip, meinst du die Seiten entfernen? werde ich versuchen.

[quote=“ErikBrinx”]Hallo, ne ist nicht viel los hier, liegt vielleicht daran, das alles Augenmerk der 4er Version gilt. Vielleicht hilft Dir dieser Beitrag ein wenig weiter forum.shopware.de/administration-f11/doppelte-title-tags-doppelte-meta-descr-d-canonical-tags-t6008.html Grüße Erik![/quote] Leider bringt diese Vorschlag nichts, immer mehr Doppelte “title”-Tags und Description. Über 1 1/2 Jahre war Ruhe und jetzt geht das wieder los, einfach so? Ich kapiere das nicht, was ist mit disem Shop nur los? Jeden Tag vebringt man Stunden bei Webmaster Tools. Das ist wohl nicht der Sinn in der Sache oder?

Hallo Testman, kannst du analysieren, wo die Links herkommen? Beispiel: /Boxsack-Sets?language=de&?per_site=100 Diese Art gibt es in Shopware nicht. Parameter language oder per_site werden in Shopware nicht genutzt. Auch ist der URL-Aufbau fehlerhaft, da 2x ?= gesetzt wird. Ist das evtl. von einer anderen Seite oder dem alten System und diese sind noch irgendwo falsch vorhanden? /Boxsack-Sets?language=de&%3Fper\_site=30&?per\_site=10 /Boxsack-Sets?language=de&?per\_site=100 /Boxsack-Sets?language=de&?per\_site=10 Die URLs führen alle auf die selbe Seite, was dann doppelte Meta-Angaben zur Folgen hat. Eine Möglichkeit wäre sicher, dass die o.g. Parameter komplett in Gooogle ignoriert werden. Das sollte man einstellen können. Sebastian

Hallo, Parameter unbter Google Einstellungen habe ich - nach dem die Fehlerseiten sich vermehrten haben so eingestellt: Parameter,Ãœberwachte URLs,Konfiguriert,Effekt,Crawling,Wert sPage, 2778, 13.05.13,Sonstiges,Keine URLs, – RewriteOld, 1303, 13.05.13,Sonstiges,Keine URLs, – p, 461, --, --,Entscheidung dem Googlebot überlassen, – sRss, 151, --, --,Entscheidung dem Googlebot überlassen, – sAtom, 149, --, --,Entscheidung dem Googlebot überlassen, – sTemplate, 138, --, --,Entscheidung dem Googlebot überlassen, – sCoreId, 96, 13.05.13,Sonstiges,Keine URLs, – language, 74, 13.05.13,Eingrenzung,Keine URLs, – ?per_site, 42, 13.05.13,Sonstiges,Keine URLs, – %3Fper_site, 40, 6.05.13,Eingrenzung,Keine URLs, – Ich weiss es nicht woher die URLs kommen, wie schon gesagt über 1 1/2 Jahre war alles in Ordnung, das ist so erst Seit ca. 4 Wochen, und das wird immer schlimmer. Die volgende Beispiel Kategorie Seite ist nicht doppel sonder 14- Fach Description. /boxsport-zubehoer /boxsport-zubehoer?p=1&sCoreId=7c51ba7ecbaa3f03555fc6ed2e2d7ef1 /boxsport-zubehoer?p=1&sTemplate=list&sCoreId=7c51ba7ecbaa3f03555fc6ed2e2d7ef1 /boxsport-zubehoer?p=1&sTemplate=table&sCoreId=7c51ba7ecbaa3f03555fc6ed2e2d7ef1 /boxsport-zubehoer?p=10 /boxsport-zubehoer?p=11 /boxsport-zubehoer?p=12 /boxsport-zubehoer?p=2&sCoreId=7c51ba7ecbaa3f03555fc6ed2e2d7ef1 /boxsport-zubehoer?p=3&sCoreId=7c51ba7ecbaa3f03555fc6ed2e2d7ef1 /boxsport-zubehoer?p=4&sCoreId=7c51ba7ecbaa3f03555fc6ed2e2d7ef1 /boxsport-zubehoer?p=5&sCoreId=7c51ba7ecbaa3f03555fc6ed2e2d7ef1 /boxsport-zubehoer?p=7 /boxsport-zubehoer?p=8 /boxsport-zubehoer?p=9

Was steht denn im Admin unter Grundeinstellungen > Module > SEO bei “SEO-Nofollow Querys” und bei “SEO-Nofollow Viewports”? Deine robots.txt ist komplett überladen, enthält falsche Einträge und aus meiner Sicht fehlen Einträge. Disallow: /register/ Das Verzeichnis /register/ gibt es nicht im SW-Shop. Sämtliche Einträge, die Disallow: /print_product_info.php… enthalten, kannst Du einmal so eintragen: Disallow: /*print_product_info.php Du hast hinter fast sämtliche Anweisungen einen abschließenden Slash gemacht. Sicher, dass Disallow: /000000966410bf117/50125698e70affc02/50125698e70b13209.html/ ein Verzeichnis war in Deinem alten Shop? Lies Dir mal dies durch: http://support.google.com/webmasters/bi … wer=156449 Hast Du eigene Einträge in der .htaccess-Datei, um alte URLs aus Deinen XT-Shop auf den SW-Shop umzuleiten?

erst mal vielen Dank für die professionelle Hilfe. Die robots.txt habe ich bereits überarbeitet und stark abgespeckt. unter Grundeinstellungen > Module > SEO bei „SEO-Nofollow Querys“ steht: sPage,sPerPage,sSupplier,sFilterProperties,p,n,s,f „SEO-Nofollow Viewports“: login,ticket,tellafriend,note,support,basket,admin,registerFC,newsletter,search,search,account,checkout,register. Von mir wurde hier nichts verändert. Ja ich hatte eigene Einträge in der .htaccess-Datei, um alte URLs aus einem XT-Shop auf den SW-Shop umzuleiten, Vorgestern habe ich die entfernt, da ich dachte, dass die Fehler damit was zur tun haben.

[quote=“Testman”]erst mal vielen Dank für die professionelle Hilfe. Die robots.txt habe ich bereits überarbeitet und stark abgespeckt. [/quote] Na, das sieht doch schon mal besser aus. :slight_smile: Warum hast Du bei den ganzen Spamboteinträgen keine Anweisung nach dem Disallow? [quote=“Testman”] Ja ich hatte eigene Einträge in der .htaccess-Datei, um alte URLs aus einem XT-Shop auf den SW-Shop umzuleiten, Vorgestern habe ich die entfernt, da ich dachte, dass die Fehler damit was zur tun haben.[/quote] Das wird dann wohl der Grund für die Aufrufe gewesen sein. Eine nicht korrekte Weiterleitung kann dafür sorgen, dass zwar die korrekte Kategorie aufgerufen wird, aber die Parameter des alten Shops dran bleiben. Du kannst übrigens auch alte URLs in die SW-Datenbank einfügen und musst nicht mit der .htaccess arbeiten. Hat bei mir fast ein dreiviertel Jahr gedauert, bis ich als Nicht-Tekki es dann endlich mal verstanden habe. :wink: Habe jetzt die .htaccess abgespeckt und alte URLs in die DB importiert.

Hallo, [quote]Warum hast Du bei den ganzen Spamboteinträgen keine Anweisung nach dem Disallow?[/quote] Das habe ich vor lange Zeit so übernommen aus irgendeine Seite. Die robots Einträge haben leider nichts gebracht, Google macht weiter sein Job und findet immer mehr doppelten content. Ich weiss nicht mehr was man da noch machen könnte. [quote]Du kannst übrigens auch alte URLs in die SW-Datenbank einfügen und musst nicht mit der .htaccess arbeiten.[/quote] Das ist mir etwas zur hoch, an der Datenbank nehme ich keine veränderungen vor, dafür sind meine Kentnisse zur schwach. Verliere inzwischen wertvolle Platzierung bei Google, das hat auf jeden Fall mit den doppelten content was zur tun.

Du hast am Mittwoch die robots.txt überarbeitet. Gib Google mal ein paar Tage Zeit, um die robots.txt zu lesen. In den WMT unter Status > Blockierte URLs siehst Du, ob die aktuelle schon eingelesen ist.

Ja mal sehen, aber es gibt was neues, bei WMT unter Fehler - nicht gefunden. Und zwar Seit 21.05 vermisst Google Produkt-Seiten mit unvollständiger Adresse die es eigentlich gar nicht gibt bzw. gab, z.B: box-set-advanced-120-x-35-und-38-kg hier fehlt noch in der Adresse „-gewicht“ box-set-heavy-gefuellt-bis-82-kg-15 hier fehlt noch in der Adresse „0-x-35-l“ Natürlich vermisst Google die Adressen da die unvollständig ausgelesen werden, nur warum? Habe ich da was falsches in der robots.txt geblogt? Grüße Andi

Wenn es zu Störungen in der Erreichbarkeit Deiner Seite kommt, kann das passieren.

[quote=“simplybecause”]Du hast am Mittwoch die robots.txt überarbeitet. Gib Google mal ein paar Tage Zeit, um die robots.txt zu lesen. In den WMT unter Status > Blockierte URLs siehst Du, ob die aktuelle schon eingelesen ist.[/quote] Crawling Fehler - sind bis jetzt keine neue hinzugekommen, aber doppelte Meta Titel und Description werden immer mehr, letzte Update 27.05 Ich betrachte dieses Problem als ungelösst, es gibt im ganzem Forum dafür leider keine Lössung! Das wurde auch hier: allgemeines-f2/crawling-fehler-http-in-webmaster-tools-t5078.html?hilit=crawling%20fehler&start=50 bereits ausführlich besprochen ohne Ergebniss. Aber vielleicht gibt es eine Lösung für nicht um sonst? Egal ich wäre ich bereit dafür zur zahlen wenn es hilft.

Hallo Testman, leider ist es schwierig beim letzten Post zu helfen. Der verlinkte Post wurde längst gelöst. Natürlich kann man so nicht beurteilen, ob bei dir die nötigen Anpassungen durch das Update greifen, da du ja ein individuelles Layout hast. Bzgl. doppelter Metadaten kann jetzt aber auch ein ganz anderes Problem vorliegen. Viele der genannten urls am Anfang des Posts standen ja in keinem Zusammenhang mit Shopware. Man müsste jetzt genaue aktuell neue Beispiele des Aufbaus haben. Also welche Urls haben die selben Metadaten. Bei Shopware 4 kann man die z.B. abweichend je Shopseite pflegen, z.B. für AGB oder Impressum. Das ging in der 3er noch nicht. Ich versuche dann gerne noch den ein oder anderen Tipp zu geben. Natürlich kann das ein oder andere auch noch ein folge der alten fehlerhaften Erfassung sein. Viele Angaben die Google aufführt kann man aber vernachlässigen. Vieles hat, wenn überhaupt, nur Relevanz im ganz kleinen Bereich. (Ist aber ein anderes Thema :wink: ) Du hast auch viel an Regelungen, robots.txt, htaccess etc. bereits gemacht und das kann auch negative Folgen nach sich ziehen. Das wäre also eher was für eine Agentur, die sich z.B. auf solche Anpassungen und Optimierungen spezialisiert haben. Gerade auch Änderungen und Ausschließen von bestimmten Parametern. Das ist ja ersteinmal unabhängig vom Shopsystem im ersten Schritt. Das Shopsystem wird dann wieder relevant, wenn bestimmte Dinge darin umgesetzt werden müssen. Aber eine tiefere Analyse wäre in deinem Fall sicher hilfreich. Evtl. nimmt man das auch zum Anlass auf Version 4 upzudaten. Dann mach man alles in einem Rutsch und vieles löst sich dann ggf. direkt von selbst. Viele Grüße Max Achja, poste nochmal ein aktuelles Beispiel mit doppeltem Content. Das sollte man eigentlich einfach hinbekommen. Ich konnte so auf der Seite jetzt kein direktes Problem erkennen. PS: was ist denn bei dir unter /sitemap? Da liegt eine statische html Sitemap vom 6.Mai. Bei mir sieht die such etwas fehlerhaft aus und kann theoretisch auch eine weitere Ursache sein.

hallo, Update auf Version 4 kommt bei mir noch nicht in Frage, zuviele Probleme gibt es noch, un die Zeit dazu, sich darum darum zu kümmern fehllt auch. Ich möchte mit der Version 3.5.6 weiter machen, schließlich gab es die Probleme 1 1/2 Jahre nicht, nur warum tauchen sie jetzt auf? Das ist das neueste Problem Doppelte “title”-Tags in eine kategorie “Boxsport Zubehör” /boxsport-zubehoer /boxsport-zubehoer?p=1&sCoreId=7c51ba7ecbaa3f03555fc6ed2e2d7ef1 /boxsport-zubehoer?p=1&sTemplate=list&sCoreId=7c51ba7ecbaa3f03555fc6ed2e2d7ef1 /boxsport-zubehoer?p=1&sTemplate=table&sCoreId=7c51ba7ecbaa3f03555fc6ed2e2d7ef1 /boxsport-zubehoer?p=10 /boxsport-zubehoer?p=11 /boxsport-zubehoer?p=12 /boxsport-zubehoer?p=2&sCoreId=7c51ba7ecbaa3f03555fc6ed2e2d7ef1 /boxsport-zubehoer?p=3&sCoreId=7c51ba7ecbaa3f03555fc6ed2e2d7ef1 /boxsport-zubehoer?p=3 /boxsport-zubehoer?p=4&sCoreId=7c51ba7ecbaa3f03555fc6ed2e2d7ef1 /boxsport-zubehoer?p=4 /boxsport-zubehoer?p=5&sCoreId=7c51ba7ecbaa3f03555fc6ed2e2d7ef1 /boxsport-zubehoer?p=6 /boxsport-zubehoer?p=7 /boxsport-zubehoer?p=8 /boxsport-zubehoer?p=9 Mit Sitemap ist es auch so eine Sache, wenn ich die generiere und in das Root Verzeichnis hinzufüge, wird sie vom Shop ignoriert und beim Aufruf kommt das was auf der Seite sichtbar ist.

Hallo, ein Problem konnte ich jetzt erkennen, was auf jeden Fall mit ein Grund für die fehlerhafte Erfassung ist. Generell werden nie Seite erfasst, die den Parameter ?p= besitzen. Beispiel URL bei dir: /boxsport-zubehoer?p=2 Im Seitenquelltext bei dir steht: <meta name="robots" content="index,follow"> Im Standard steht da aber folgendes: <meta name="robots" content="noindex,follow"> Da muss bei den Parametern also immer noindex stehen. Bei dir gibt es somit aktuell die Anweisung, dass die ganzen Seite aufgenommen werden sollen/können. Gleich auch mal deine SEO-Einstellungen in den Grundeinstellungen mit den Standardeinträgen ab. Evtl. liegt da das Problem. Sebastian PS: Eine sCoreId gibt es in Shopware 4 generell im System nicht mehr. Das mit der Sitemap habe ich nicht ganz verstanden. Die wird ja immer von Shopware automatisch erzeugt. Manuell muss man keine erstellen oder irgendwo hinkopieren.

Sebastian danke für den Tip, ich habe die Meta Anweisung geändert, mal sehen was passiert. Gruß Andi

Hi, das hast du aber nicht manuell gemacht, oder? Also das setzt Shopware eigentlich komplett automatisch richtig, wenn die Standard-SEO-Einstellungen aktiv sind.