Wie kann ich eine gesamte Website herunterladen?
Sie möchten nicht nur einen Artikel oder ein individuelles Bild, Sie möchten das ganze Webseite. Was ist der einfachste Weg, alles abzusaugen??
Die heutige Question & Answer-Sitzung wird dank SuperUser zur Verfügung gestellt - einer Unterteilung von Stack Exchange, einer Community-basierten Gruppierung von Q & A-Websites.
Bild verfügbar als Tapete bei GoodFon.
Die Frage
SuperUser-Leser Joe hat eine einfache Anfrage:
Wie kann ich alle Seiten von einer Website herunterladen??
Jede Plattform ist in Ordnung.
Jede Seite, keine Ausnahme. Joe ist auf einer Mission.
Die Antwort
SuperUser-Mitwirkender Axxmasterr bietet eine Anwendungsempfehlung:
http://www.httrack.com/
HTTRACK funktioniert wie ein Champion, um den Inhalt einer gesamten Site zu kopieren. Dieses Tool kann sogar die Teile erfassen, die erforderlich sind, um eine Website mit aktivem Codeinhalt offline zu machen. Ich bin erstaunt über das Zeug, das es offline replizieren kann.
Dieses Programm wird alles, was Sie dafür brauchen.
Fröhliches Jagen!
Wir können HTTRACK von Herzen empfehlen. Es ist eine ausgereifte Anwendung, die die Arbeit erledigt. Was ist mit Archivaren auf Nicht-Windows-Plattformen? Ein anderer Mitarbeiter, Jonik, schlägt ein anderes ausgereiftes und leistungsfähiges Werkzeug vor:
Wget ist ein klassisches Befehlszeilentool für diese Art von Aufgabe. Es wird mit den meisten Unix / Linux-Systemen geliefert und ist auch für Windows erhältlich (neuere Version 1.13.4 hier verfügbar)..
Sie würden so etwas tun:
wget -r --no-parent http://site.com/songs/
Weitere Informationen finden Sie im Wget-Handbuch und seinen Beispielen oder werfen Sie einen Blick auf diese:
- http://linuxreviews.org/quicktips/wget/
- http://www.krazyworks.com/?p=591
Haben Sie der Erklärung etwas hinzuzufügen? Ton aus in den Kommentaren. Möchten Sie mehr Antworten von anderen technisch versierten Stack Exchange-Benutzern lesen? Hier geht es zum vollständigen Diskussionsthread.