Seite wird zu wenig gecrawlt

Hallo erstmal! Ich arbeite seit kurzen mit SW und habe noch die Freeversion, deshalb die Frage hier im Forum. Seit ca. 3 Wochen ist mein Shop online, und ich habe den Eindruck das Google meinen Shop ignoriert, trotz Tiltle-Tag, Meta-Description, SEO freundlichen Url´s und Bilder die für SEO einen aussagekräftigen Namen haben, ie Sitemap.xml wird regelmäßig aktualisiert. Ich habe die Module „SEO Total“ & „Artikel SEO Link hinterlegen“ trotz allem mag Google meinen Shop nicht. Google Webmaster-Tool sagt folgendes zu diesem Link: http://www.kerzenshop-24.de/anlasskerzen/taufkerzen/ ================ Zugelassen Als Verzeichnis erkannt; bestimmte Dateien weisen eventuell unterschiedliche Einschränkungen auf. Zu diesem Link http://www.kerzenshop-24.de/taufkerzen- … tung-11425 ================== Zugelassen robots.txt lautet: User-agent: * Disallow: /compare Disallow: /checkout Disallow: /register Disallow: /account Disallow: /note Sitemap: http://www.kerzenshop-24.de/sitemap.xml Kann mir wer sagen was da auf meinem Shop schief läuft? Für eine Hilfe wäre ich sehr dankbar - Wenns nichts bringt, steige ich wohl oder übel wieder auf Gambio um :frowning: Ich sag schon mal Danke.

Servus, hast du die Sitemap schon mal in deinem Webmaster Tools Account hochgeladen. Das hilft initial oft sehr gut. VG Martin

[quote=“Martin Weinmayr”]Servus, hast du die Sitemap schon mal in deinem Webmaster Tools Account hochgeladen. Das hilft initial oft sehr gut. VG Martin[/quote] Danke, ich versuch es mal Bringt das einreichen einzelner Links etwas? Sorry, ich bin nicht ganz so erfahren. Grüße

Das kann ich dir auch nicht sagen. Wir nutzen das zum inialen Anstoß. Wenn es dann mal bei Google drin ist, dann kommen die ja von alleine zum crawlen vorbei. VG Martin

Hallo DonLuigie, ich weiß nicht sicher, wie viel die Angabe meta-revisit aussagt. Allerdings ist diese bei dir noch mit „15 days“ angegeben. Evtl. bringt es was den Wert auf 2 oder 3 zu setzen. http://wiki.shopware.de/Wie-koennen-die … _1244.html Sebastian

Hallo, wenn die Sitemap und/oder die Seite bei den Webmastertools angemeldet ist, sollte Google alle Links von alleine finden. Die Frequenz mit der die Seiten abgerufen werden, bestimmt Google selber. Der Meta-Tag „revisit“ sollte bei der Shopseinrichtung ruhig auf 1 oder 2 Tage gesetzt werden. Merkt Google, dass die Seite nur unregelmäßig aktualisiert wird, dann verlängern die auch das Analyse-Intervall und ignorieren die Zeitangabe im meta-Tag. Das ist aber kein Nachteil hinsichtlich des Rankings, warum sollen die unveränderte Seiten x-Mal indexieren? Aber die Seite hat einige Macken hinsichtlich der „SEO-Optimierung“: z. B.: http://www.kerzenshop-24.de/taufkerzen- … tung-11425 <meta property="og:description" content=" Taufkerze in Rosa oder Blau - Incl. Kerzenbeschriftung Qualitätsmerkmal: Premiumqualität aus Deutschland Hergestellt in Deutschland Kerzenwachs: Reinstes Paraffin-Wachs..."><meta property="og:description" content="Taufkerzen mit Babymotiven wie Teddybär, Schmetterlinge und Schnuller - Taufkerzen-Neuheiten aus dem KerzenShop-24"> Welche og:description soll denn hier benutzt werden? Oder: Wenn man der Empfehlung von Google & Co folgt und structured data markup in die Seite einfügt, dann soll der Inhalt der strutred data auch auf der Seite sichtbar sein. Es gibt eine sichtbare „Breadcrumb“, die muss ausgezeichnet werden. Man kann nicht noch einige zusätzliche Angaben mit height=0px für den Leser unsichtbar einfügen. Falls Zusatzangaben notwendig sind, bieten die structured data dafür eine spezielle Syntax.

Dem kann ich nur beipflichten. Google sagt ganz klar dass es nicht sichtbaren Content nicht akzeptiert. [quote]Q: My site has a very specific design and the information that I would like to display in the rich snippets will ruin it. Could I hide it from my site visitors somehow, making it available only to Googlebot? A: It can be tempting to add all the content relevant for a rich snippet in one place on the page, mark it up, and then hide the entire block of text using CSS or other techniques. Don’t do this! Mark up the content where it already exists. Except in special circumstances (for example when marking the best possible rating for review sites that don’t use a 5-point rating scale), Google will not show content from hidden div’s in Rich Snippets.[/quote] https://sites.google.com/site/webmaster … h-snippets Ein korrektes Breadcrumb würde so aussehen: [code]{* Breadcrumb *}

{if $sShopname} {se name=‘BreadcrumbDefault’ namespace=“frontend/index/breadcrumb”}{/se} [{$sShopname}]({url controller=‘index’}) {/if} {foreach name=breadcrumb from=$sBreadcrumb item=breadcrumb} {if $breadcrumb.name} {if $smarty.foreach.breadcrumb.last} /[{$breadcrumb.name}]({if $breadcrumb.link}{$breadcrumb.link}{else}#{/if} “{$breadcrumb.name}”) {else} /[{$breadcrumb.name}]({if $breadcrumb.link}{$breadcrumb.link}{else}#{/if} “{$breadcrumb.name}”) {/if} {/if} {/foreach}
[/code] Achtung, das ganze klappt nicht mit dem Repsonsive Template, das wird nämlich als Liste aufgebaut, aber Adaptieren könnte man das ja ganz leicht.

Hallo, im emotion-Template gibt es zwei Templates für die Breadcrumb, die müssten beide angepasst werden. Das Snippet von Martin kann aber als Vorlage dienen (Danke dafür). /detail/navigation.tpl /index/breadcrumb.tpl Außerdem sollte man alle structured data nach schema.org auszeichnen - z. B. für diesen Fall http://schema.org/WebPage . Die data-vocabulary sind eigentlich seit 2 oder drei Jahren nicht mehr aktuell. Viele Grüße HTH

Ich sag erstmal Danke an alle. Da es aber teilweise für mich zu kompliziert wird, denke ich das ich mir da einen Profi ranholen muss der mir die Grundeinstellungen im Programm macht. Aber nochmal zu dem Hinweis aus dem Webmaster-Tools „Als Verzeichnis erkannt; bestimmte Dateien weisen eventuell unterschiedliche Einschränkungen auf.“ Muss ich das nun so verstehen, dass Google nun keinen Zugriff auf diese Seite hat bzw. kann man das irgendwie mit „allow“ beeinflussen? Gruß Gerhard

[quote=„DonLuigie“]Ich sag erstmal Danke an alle. Da es aber teilweise für mich zu kompliziert wird, denke ich das ich mir da einen Profi ranholen muss der mir die Grundeinstellungen im Programm macht. Aber nochmal zu dem Hinweis aus dem Webmaster-Tools „Als Verzeichnis erkannt; bestimmte Dateien weisen eventuell unterschiedliche Einschränkungen auf.“ Muss ich das nun so verstehen, dass Google nun keinen Zugriff auf diese Seite hat bzw. kann man das irgendwie mit „allow“ beeinflussen? Gruß Gerhard[/quote] Hallo, das steht wahrscheinlich direkt unter „Zugelassen“, wenn man die Sitemap testet, oder? Das bedeutet eigentlich alles und nichts. Unter der domain.de/ können ja noch gesperrte Dateien stehen (z. B. durch die robots.txt) oder einzelne URLs nicht erreichbar sein. Fazit: Alles in Ordnung und beeinflussen kann man es nicht. Ich habe oben zwei Beispiele genannt, die nicht gut sind. Am sinnvollsten kann man die SEO-Optimierung eigentlich durch zwei, drei Template-Änderungen durchführen und man benötigt kein Plugin dafür. Dann stehen die structured data auch nach dem empfohlenen Standard im HTML-Source-Code. Die meta-Tags werden von Google & Co aber zur Zeit noch unterstützt. Der zweite Punkt zur Optimierung ist eigentlich ein redaktioneller: auf zu viele nichtssagende Key-Words verzichten. Die werden sonst komplett von Google ignoriert. Generell richtet sich Google hauptsächlich nach dem für den Menschen lesbaren Seiteninhalt was Keywords angeht. Bei Interesse bieten wir „pragmatische“ Lösungen auch gerne auf kommerzieller BAsis an. Viele Grüße H. Thomas