Como posso baixar um site inteiro?
Você não quer apenas um artigo ou uma imagem individual, você quer o todo local na rede Internet. Qual é a maneira mais fácil de sugar tudo?
A sessão de perguntas e respostas de hoje nos é oferecida por cortesia do SuperUser - uma subdivisão do Stack Exchange, um agrupamento de sites de perguntas e respostas conduzido pela comunidade..
Imagem disponível como papel de parede no GoodFon.
A questão
O leitor do SuperUser Joe tem um pedido simples:
Como posso baixar todas as páginas de um site??
Qualquer plataforma está bem.
Cada página, sem exceção. Joe está em uma missão.
A resposta
O colaborador do SuperUser, Axxmasterr, oferece uma recomendação de aplicação:
http://www.httrack.com/
O HTTRACK funciona como um campeão para copiar o conteúdo de um site inteiro. Esta ferramenta pode até mesmo pegar as peças necessárias para fazer um site com conteúdo de código ativo funcionar offline. Estou espantado com as coisas que podem replicar offline.
Este programa fará tudo o que você precisar.
Caçada feliz!
Podemos recomendar com entusiasmo o HTTRACK. É um aplicativo maduro que faz o trabalho. E os arquivistas em plataformas não-Windows? Outro colaborador, Jonik, sugere outra ferramenta madura e poderosa:
O Wget é uma ferramenta clássica de linha de comando para esse tipo de tarefa. Ele vem com a maioria dos sistemas Unix / Linux, e você pode obtê-lo para o Windows também (mais recente 1.13.4 disponível aqui).
Você faria algo como:
wget -r --no-parent http://site.com/songs/
Para mais detalhes, veja o Manual do Wget e seus exemplos, ou dê uma olhada nestes:
- http://linuxreviews.org/quicktips/wget/
- http://www.krazyworks.com/?p=591
Tem algo a acrescentar à explicação? Soe fora nos comentários. Quer ler mais respostas de outros usuários do Stack Exchange com experiência em tecnologia? Confira o tópico de discussão completo aqui.