Hallo Forengemeinde!
Brauch mal wieder eure Hilfe, werde nicht schlau aus dem Problem:
Seit das Modul "Sitemap XML" installiert wurde, spinnt sich Google aus.
Das Modul generiert die Sitemap automatisch und aktualisiert per Cron wöchentlich.
Google erkennt die Sitemap, findet beim crawlen allerdings nichts da scheinbar durch die "robots.txt" von den Urls ausgeperrt.
In der robots.txt steht allerdings nichts neues als vorher auch (naja, wie gewünscht wurde der Hinweis wo die Sitemap ist hinzugefügt"
Irgendjemnd eine Idee wie ich das beheben kann???
Fehlermeldung von Google:
Bei Tests von URLs auf Ihrer Sitemap wurde festgestellt, dass der Zugriff auf einige URLs durch die Datei robots.txt der Website blockiert wurde. Falls Sie nicht beabsichtigen, einige der in der Sitemap enthaltenen URLs zu blockieren, überprüfen Sie bitte mit unserem robots.txt-Analysetool, ob die in Ihrer Sitemap angegebenen URLs für Googlebot zugänglich sind. Alle zugänglichen URLs werden weiterhin übermittelt.
Meine robots.txt:
User-agent: *
Disallow: /cgi-bin/
Disallow: /*zenid=
Sitemap: http://www.e-dampfzigarette.at/sitemap.xml
Brauch mal wieder eure Hilfe, werde nicht schlau aus dem Problem:
Seit das Modul "Sitemap XML" installiert wurde, spinnt sich Google aus.
Das Modul generiert die Sitemap automatisch und aktualisiert per Cron wöchentlich.
Google erkennt die Sitemap, findet beim crawlen allerdings nichts da scheinbar durch die "robots.txt" von den Urls ausgeperrt.
In der robots.txt steht allerdings nichts neues als vorher auch (naja, wie gewünscht wurde der Hinweis wo die Sitemap ist hinzugefügt"
Irgendjemnd eine Idee wie ich das beheben kann???
Fehlermeldung von Google:
Bei Tests von URLs auf Ihrer Sitemap wurde festgestellt, dass der Zugriff auf einige URLs durch die Datei robots.txt der Website blockiert wurde. Falls Sie nicht beabsichtigen, einige der in der Sitemap enthaltenen URLs zu blockieren, überprüfen Sie bitte mit unserem robots.txt-Analysetool, ob die in Ihrer Sitemap angegebenen URLs für Googlebot zugänglich sind. Alle zugänglichen URLs werden weiterhin übermittelt.
Meine robots.txt:
User-agent: *
Disallow: /cgi-bin/
Disallow: /*zenid=
Sitemap: http://www.e-dampfzigarette.at/sitemap.xml
Kommentar