Hoe kan ik een volledige website downloaden?
U wilt niet alleen een artikel of een individuele afbeelding, u wilt het geheel website. Wat is de gemakkelijkste manier om alles te overhevelen?
De Question & Answer-sessie van vandaag komt tot ons dankzij SuperUser - een onderdeel van Stack Exchange, een gemeenschapsgedreven groep van Q & A-websites.
Afbeelding beschikbaar als achtergrond bij GoodFon.
De vraag
SuperUser-lezer Joe heeft een eenvoudig verzoek:
Hoe kan ik alle pagina's van een website downloaden?
Elk platform is prima.
Elke pagina, geen uitzondering. Joe is op een missie.
Het antwoord
SuperUser-bijdrager Axxmasterr biedt een toepassingsaanbeveling:
http://www.httrack.com/
HTTRACK werkt als een kampioen voor het kopiëren van de inhoud van een hele site. Deze tool kan zelfs de stukjes pakken die nodig zijn om een website met actieve codecontent offline te maken. Ik ben verbaasd over de dingen die het offline kan repliceren.
Dit programma zal alles doen wat je nodig hebt.
Goede jacht!
We kunnen HTTRACK van harte aanbevelen. Het is een volwassen applicatie die de klus klaart. Hoe zit het met archivarissen op niet-Windows-platforms? Een andere bijdrager, Jonik, stelt een andere volwassen en krachtige tool voor:
Wget is een klassiek opdrachtregelprogramma voor dit soort taken. Het komt met de meeste Unix / Linux-systemen, en je kunt het ook voor Windows krijgen (nieuwere 1.13.4 hier beschikbaar).
Je zou iets als doen:
wget -r --no-parent http://site.com/songs/
Zie Wget Manual en de voorbeelden voor meer informatie, of bekijk deze:
- http://linuxreviews.org/quicktips/wget/
- http://www.krazyworks.com/?p=591
Heb je iets toe te voegen aan de uitleg? Geluid uit in de reacties. Wilt u meer antwoorden van andere technisch onderlegde Stack Exchange-gebruikers lezen? Bekijk hier de volledige discussiethread.