Hallo,
kann mir jemand ein Programm zum Archivieren/Speichern/Kopieren von ganzen Websites (also mit Unterseiten/Verschachtelungstiefe) empfehlen? Ich hatte mal Websnake ausprobiert, aber das Programm hängte sich ab einer bestimmten Seiten-Tiefe oder Downloadmenge auf. Deswegen suche ich jetzt was, was stabiler arbeitet.
Schön wäre noch, wenn man auswählen könnte, ob Links nur auf dem Server verfolgt werden oder auch andere Domains und wenn man die Verschachtelungstiefe (Anzahl der Unterseiten) festlegen könnte.
Ich glaube das läuft auch unter dem Namen Offline-Reader oder so. Wobei die Synchronisation des Internetexplorers für meine Zwecke weniger geeignet erscheint.