Moin,
ich denke ich habe soweit verstanden das die Ajax Elemente durch den google Bot gelesen werden können, sicher bin ich mir jetzt aber nicht das er auch wirklich alle Inhalte crawlen kann, und zwar gib tes ja die Möglichkeit mittels /?_escaped_fragment_= sich das so anzeigen zu lassen, wie es der googlebot eigentlich sehen sollte, da habe ich nun aber ein Problem: und zwar wenn man folgende zwei Seiten aufruft sollten sie ja annähernd ähnlich aussehen, zumindest sollten die Inhalte vorhanden sein, sind sie aber nicht:
So soll es aussehen für google: Standlautsprecher kaufen & sparen - Alle Marken | Musikus Hifi Shop
So sieht es kacke aus für google: Standlautsprecher kaufen & sparen - Alle Marken | Musikus Hifi Shop
aber das 2. ist wohl das was google nur erhält. Werden die anderen Inhalte dann nicht durch google gesehen? Bei der Überschrift „Hifi Standlautsprecher“ (wurde mit Digital Publishing erstellt) handelt es sich eigentlich um eine h1 Überschrift und der rechte Block sollten ein paar deeplinks werden, wenn das aber nicht gecrawlt werden kann durch Google, weil es sich um eine Einkaufswelt handelt ist es doch überflüssig… Genauso die Topseller unter der Überschrift werden dann ja nicht verfolgt.
Ich bin davon ausgegangen das die Elemente einer Einkaufswelt / Digital Publishing alle in irgend einer Form auch dem bot sichtbar gemacht werden, scheint aber nicht der Fall zu sein. Auch im WMT werden ja immer die Fehler angezeigt das das Rendern der Inhalte /widgets durch robots.txt geblockt ist und die Dringlichkeit hoch wäre. Habe nun mir so ziemlich alles durchgelesen, aber so richtig verstanden scheinbar nicht, kann da nicht mal einer richtig Licht ins Dunkel bringen?
Was nützen die Einkaufswelten Elemente / Digital Publishing / wenn man Sie für SEO nicht nutzen kann? Gerade die kann man ja gut für spezielle Landingpages / Kategorieseiten aufhübschen und optimieren.
Lange Rede, gar kein Sinn: Wie sehe ich nun wirklich was der Bot angezeigt bekommt? Oder kann der Bot die Seite so rendern / lesen wie ein „normaler“ User obwohl die widgets durch robots.txt geblockt sind und die Anzeige mit _/?_escaped_fragment_= _falsch ist, zumal das ja auch deprecated laut google ist. Korrekt wäre wohl ab jetzt: #!
Ihre Website sollte die
#!
-Syntax in allen URLs verwenden, die das AJAX-Crawlingschema übernommen haben. Der Googlebot folgt keinen Hyperlinks im Format_escaped_fragment_
.Quelle: Grundlagen von JavaScript-SEO | Google Search Central | Dokumentation | Google for Developers
Wäre schön wenn uns mal dazu einer aufklären könnte :-)
Gruß
Michael