Dank schneller DSL-Verbindungen
ist es zwar heut in den meisten Fällen kein Problem mehr zügig
eine Webseite anzuschauen, doch in manchen Fällen möchte
man die Webseite doch auf dem heimischen Rechner haben. Dafür
hilft das Kommandozeilen-Tool wget. wget kann eine komplette
Webseite mit allen Verlinkungen auf der Seite auf den heimischen
Rechner runterladen. Der Befehl dafür lautet:
# wget -r -l6 -p -k -np -U Firefox http://www.mystic-store.com/
-r = rekursiv,
also den Links folgen
-l6 (kleines L und eine 6) = die Linktiefe, hier 6. Standardmäßig
ist die Linktiefe auf 5 gesetzt. Dies ist eine wichtige Option,
denn bei entsprechender Linktiefe würde wget allen Links folgen
und könnte so -eine entsprechend große Festplatte vorrausgesetzt-
das gesamte Internet runterladen. ;-)
-p = die "Seiten-Requisiten", also das drumherum
wird auch runtergeladen.
-k = konvertiere Links, d.h. sämtliche Links und Verzweigungen
der Seite werden für die Offline-Betrachtung abgeändert
damit die Seite auch Offline funktioniert.
-np = no parent, bedeutet, es werden keine übergeordneten
Verzeichnisse heruntergeladen, sondern das rekursive beschränkt
sich auf untergeordnete Verzeichnisse.
-U = der User-Agent, also mit welcher Kennung sich wget am
Server identifiziert.
Zum Abschluß noch eine interessante Option:
-c = continue, nimmt einen abgebrochenen Download wieder auf.
|