da wir einen wertvollen Link auf einen unserer PDF generiert haben, möchte ich diese indexieren. Aus der robots.txt habe ich bereits den Eintrag
Disallow: /*.pdf$
entfernt. Dennoch werden seit Wochen keine PDF indexiert. Was muss ich noch ändern? Es scheint ja immer noch eine Einstellung vorhanden zu sein, die das indexieren, bzw crawlen, stoppt.
Ja, sind alle intern verlinkt. Aber indexiert wird kein einziges. Finde das auf Produktebene auch okay, um DC zu vermeiden. Aber einige Infoblätter würde ich schon gerne veröffentlichen.
Keine Ahnung ob da bei dir speziell noch was eingestellt ist. Ich hab mir meine robots txt heute mal in search console angesehen. Da ist disallow für pdf gar nicht im standard drin. Also werden die schon indexiert.
Habt ihr da vielleicht den standard damals verändert und irgendwo hakt es noch.
Wir haben die mal ausgeschlossen. Allerdings seit über einen Monat wieder alles crawlbar gemacht. Habe gehofft, dass Google zumindest EIN PDF wieder indexiert hätte. Daher kommt es mir so vor, als würde es da wirklich noch irgendwo haken.