Google mag die AJAX-Lösung in der Einkaufswelt überhaupt nicht und verweist explizit darauf hin!
Langfristig legt Google allen Webmastern nahe, Websites auf dem Prinzip des Progressive Enhancement zu konzipieren und umzusetzen. Diese Methode ermöglicht es, allen Browsern die wichtigen Inhalte auszulesen, unabhängig davon, welche Technologien sie anwenden. Umfangreiche Funktionen werden dabei mit CSS und JavaScript ausgelagert und je nachgeladen, wenn der entsprechende Browser eine Anfrage an den Server stellt. Diese Methode hat den Vorteil, dass auch der Googlebot Zugriff auf alle wichtigen Ressourcen erhält, die er zum Crawlen, Rendern und Indexieren der Website benötigt.
Kann Google inzwischen AJAX - oder nicht?
Leider ist das nicht ganz so einfach, wie man es sich wünschen würde. Zwar hat Google offiziell bestätigt, dass der Googlebot JavaScript versteht und damit auch Seiten auf Basis von JavaScript crawlen kann, doch gilt dies nicht ohne Einschränkungen. In manchen Fällen interpretiert Google das JavaScript nicht vollständig oder nicht korrekt. Zudem crawlt Google keine AJAX-Links, die erst durch den Nutzer aktiviert werden müssen.
Eine weitere Schwierigkeit kommt bei vielen AJAX-Webseiten dazu: Das verwendete URL-Schema kann dem Crawlen und Indexieren entgegenstehen. Viele AJAX-Seiten verwenden URL-Fragmente, die durch ein “#” vom Rest der URL abgetrennt sind. Beispiel: domain.com/#shop&category=foo. Tests mit entsprechenden URLs in der Google Search Console (“Abruf wie durch Google”) zeigen, dass URL-Fragmente ignoriert werden. Johannes Müller von Google hat vor wenigen Tagen auf Anfrage bestätigt, dass Google noch Probleme mit solchen URLs hat:
Shopware hat die zwischenheitlich alte Google Empfehlung implementiert:
Das funktioniert schon, die Search Console kann das aber nicht darstellen. Ist aber dennoch mittelfristig nicht das gelbe vom Ei. Bleibt zu hoffen, dass sich in der nächsten Version einiges Richtung SEO tut.
P.S.: Allein schon der 2. Request für eine Einkaufswelt (vor allem als Landing-Page oder Startseite) ist sehr suboptimal. Außerdem gibt es ja noch andere Bots als Google.
Hallo,
es laufen parallel seit längerer Zeit Tests. Google kann auch ohne die deprecated fragment_escape-Anweisung Einkaufswelten und Landingpages auslesen. Das genannte Thema mit Verlinkungen ist im Shopware Fall nicht weiter relevant, da es solche Links nicht gibt. Der Content ist immer auf einer Seite.
Bisher können wir also nur sagen, dass die Erfassung durch Google sogar einfach wird und ohne weitere technische Lösung auszukommen scheint.
Sebastian
PS: Die jetzt als deprecated definierte Lösung hatten wir immer integriert und wird zukünftig entfernt.
Hallo,
dass Google in der Lage ist den Content zu Crawlen bedeutet aber nicht, dass das Ergebnis für das Ranking positiv ist. Wie ist hier euer Anspruch?
(Reduce the size of the above-the-fold content | PageSpeed Insights)
Hi mndnext,
unser Anspruch ist hier natürlich hoch. Daher machen wir auch parallel immer Tests um die bestmögliche Indizierung zu erreichen bei Google. Auf Ajax können wir aber technisch und auch aus Komfortsicht sowie Konfigurierbarkeit nicht einfach verzichten. Das würde die Funktionen und Möglichkeiten drastisch einschränken.
Viele Optimierungen werden von uns aber auch in den kommenden Updates/Versionen kommen. SEO-Sicht aber auch aus Performance-Sicht sowie Pagespeed-Sicht. Technisch ist dann aber immer nur die eine Seite. Das Ranking kommt dann auch mit dem Inhalt/Content.
Der von dir genannte Link ist ja auch was Allgemeineres (für uns auch wichtiges Thema) und hat jetzt nichts mit der Umstellung der Einkaufswelt zu tun.
Sebastian
Hi Sebastian,
der Link ist natürlich allgemein. Mir geht es eigentlich um die Frage, ob für SEO-relevanten Content zusätzliche Requests erforderlich sein müssen. Das Ranking kommt natürlich dann mit dem Content, aber das ist auch weniger etwas, was sich im Rahmen der Shop-Software beeinflussen lässt.
Viele Grüße
Marc