War gerade bei den Google Webmastertools wo mir angezeigt wurde das es Probleme mit den Sitemaps gab. Da Ich schon eine ganze Weile keine neuen angelegt habe tat Ich dies gerade.
Dazu verwende Ich das Programm GSiteCrawler das kostenlos erhältlich ist. Als erstes wird ein neues Projekt angelegt und dem Assistenten gefolgt. Wenn alle Seiten gecrawlt wurden muss die sitemap.xml noch erstellt und hochgeladen werden ( z.B. mit Filezilla oder direkt vom GSiteCrawler ).
Das war es eigentlich schon, wer aber noch Verzeichnisse ausschliessen möchte oder manuell etwas hinzufügen kann dies auch tun ( Menüpunkt URL Liste ).
Durch erstellen einer robots.txt Datei ( Editor ) ist es möglich dem Programm aber auch den Suchrobotern mitzuteilen das z.B. ein Verzeichnis nicht eingelesen werden soll.
Beispiel einer robots.txt Datei:
# robots.txt fuer http://deineseite.de/
User-agent: *
Disallow: /geheim/ # Verzeichnis nicht einlesen
Disallow: /nochgeheimer/ # Verzeichnis nicht einlesen
Disallow: /amgeheimsten/ # Verzeichnis nicht einlesen
Zur Homepage vom GSiteCrawler bitte hier klicken.
Für WordPress gibt es auch einige Plugins um eine Sitemap auf einer Seite zu erstellen. Mit dem Sitemap Generator Plugin habe Ich diese Seite erstellt.