wget - Webseiten speichern
 

Dank schneller DSL-Verbindungen ist es zwar heut in den meisten Fällen kein Problem mehr zügig eine Webseite anzuschauen, doch in manchen Fällen möchte man die Webseite doch auf dem heimischen Rechner haben. Dafür hilft das Kommandozeilen-Tool wget. wget kann eine komplette Webseite mit allen Verlinkungen auf der Seite auf den heimischen Rechner runterladen. Der Befehl dafür lautet:

# wget -r -l6 -p -k -np -U Firefox http://www.mystic-store.com/

-r = rekursiv, also den Links folgen
-l6 (kleines L und eine 6) = die Linktiefe, hier 6. Standardmäßig ist die Linktiefe auf 5 gesetzt. Dies ist eine wichtige Option, denn bei entsprechender Linktiefe würde wget allen Links folgen und könnte so -eine entsprechend große Festplatte vorrausgesetzt- das gesamte Internet runterladen. ;-)
-p = die "Seiten-Requisiten", also das drumherum wird auch runtergeladen.
-k = konvertiere Links, d.h. sämtliche Links und Verzweigungen der Seite werden für die Offline-Betrachtung abgeändert damit die Seite auch Offline funktioniert.
-np = no parent, bedeutet, es werden keine übergeordneten Verzeichnisse heruntergeladen, sondern das rekursive beschränkt sich auf untergeordnete Verzeichnisse.
-U = der User-Agent, also mit welcher Kennung sich wget am Server identifiziert.

Zum Abschluß noch eine interessante Option:
-c = continue, nimmt einen abgebrochenen Download wieder auf.