Hallo,
es werden immer mehr Seiten von Google nicht mehr indexiert. Die Zahl steigt eigentlich stetig an. Es werden auch immer wieder Seiten als „nicht gefunden 404“ angezeigt, die ich schon seit Wochen/Monaten nicht mehr im Programm habe und aus den Artikeln gelöscht habe. Ich denke, dass es vermutlich an der sitemap liegt. Denn obwohl ich die sitemap per cron und hand täglich aktualisiere und zusätzlich die betroffenen url über die das google webmaster tool per hand lösche, werden diese Seiten immer wieder aufgenommen und als nicht gefunden 404 ausgegeben. Die Sitemp selbst wird aber täglich von google gecrawlt und auch als fehlerfrei angezeigt. shop/web/sitemap/shop-1/sitemap-1.xml.gz Ich habe gelesen, dass ab der Version 5.5.7 entwas geändert wurde. Kann es daran liegen?