Ijs2019medienpartner.jpg

SELFHTML ist in diesem Jahr Medienpartner der IJC.

Für die Konferenz vom 21. – 25. Oktober 2019 in München verlosen wir ein Freiticket.

Weitere Informationen finden sich im SELFHTML-Forum.

Linux/Dateien von URLs downloaden

Aus SELFHTML-Wiki
Wechseln zu: Navigation, Suche

wget – Dateien von URLs downloaden[Bearbeiten]

Sie möchten eine Datei von einem entfernten Server auf Ihren herunterladen? Oder vielleicht eine komplette Website von einem anderen Server spiegeln? Dann ist wget für Sie das Tool der Wahl. Mit wget können Sie eine oder mehrere Dateien ggf. auch rekursiv von einem entfernten Server laden. Falls ein Download (z.B. bei größeren Dateien) abbricht kann wget ihn an der Abbruchstelle wieder aufnehmen.

Wenn Sie auf einem Internet-Server arbeiten, gehen solche Downloads in vielen Fällen ungleich schneller, als wenn Sie mit Ihrem PC etwas downloaden. Der Grund ist, dass der Internet-Server des Providers in der Regel eine viel breitbandigere Internet-Anbindung hat als Ihr PC-Internetzugang. Wundern Sie sich also nicht, wenn Downloads mit wget im günstigen Fall fast so schnell gehen wie lokale Kopiervorgänge auf dem Rechner.

Hinweis

wget ist eher selten installiert. Es lohnt sich aber, es einfach auszuprobieren oder ggf. den Provider zu bitten es nachzuinstallieren.
Beispiel
you@dort:~/featureartikel$ wget http://www.speedesign.de/index.html<ENTER>
you@dort:~/featureartikel$ wget -c http://www.fsai.fh-trier.de/~gielj/files/selfhtml80.zip<ENTER>
you@dort:~/featureartikel$ wget -c -r -l 10 http://aktuell.de.selfhtml.org/artikel/index.htm<ENTER>
you@dort:~/featureartikel$ wget -c -r -k -l 10 http://aktuell.de.selfhtml.org/artikel/index.htm<ENTER>
Der erste Aufruf lädt einfach die Datei index.html herunter und speichert sie im Arbeitsverzeichnis. Der zweite arbeitet ähnlich, kann jedoch einen abgebrochenen Download durch erneutes Aufrufen des gleichen Kommandos wieder fortsetzen.
Der dritte Aufruf mit den Optionen c, r und l bewirkt einen rekursiven Download der angegebenen Seite. Rekursiv bedeutet, dass wget den Links in der Startseite folgt und die verlinkten Seiten ebenfalls herunterlädt. Mit dem Schalter -l 10 wird bestimmt, dass nur Seiten bis zu einer Tiefe von zehn Links heruntergeladen werden sollen.
Beachten Sie bitte, dass der rekursive Download einen sehr hohen Traffic, sowohl auf der Seite ihres Providers, als auch auf der des Anbieterservers verursachen kann! Es ist im allgemeinen keine feine Geste, einen Server einfach blind "leerzusaugen". Gebrauchen Sie diese Funktion also maßvoll!
Beim letzten Aufruf wurde noch der -k-Schalter hinzugefügt. Dieser bewirkt eine Umwandlung von entfernten in lokale Links. Das ist vor allem wichtig, wenn Sie das Dokument offline lesen möchten.