2013-11-21 12 views
5

Ecco un esempio del mio comando:Come scaricare tutte le immagini da un sito Web usando wget?

wget -r -l 0 -np -t 1 -A jpg,jpeg,gif,png -nd --connect-timeout=10 -P ~/support --load-cookies cookies.txt "http://support.proboards.com/" -e robots=off 

Based on the input here

Ma nulla viene realmente scaricato, senza scansione ricorsiva, ci vogliono solo pochi secondi per essere completata. Sto provando a fare il backup di tutte le immagini da un forum, la struttura del forum sta causando problemi?

+1

Eventuali duplicati di http://stackoverflow.com/questions/4602153/how-do-i-use-wget-to-download-all-images-into-a-single-folder/21089847#comment33143483_21089847 –

risposta

16
wget -r -P /download/location -A jpg,jpeg,gif,png http://www.site.here 

funziona come un

+0

nel mio caso questo file 'robots.txt' di download è solo – vladkras

+0

nel caso in cui si ottiene solo robots.txt, quindi è possibile aggiungere '-e robots = off --wait 1 http://www.site.here ' al proprio wget comando. Questo sovrascriverà il file robots.txt e recupererà il contenuto che stai cercando. Ad esempio: wget -r -P/download/posizione -A jpg, jpeg, gif, png -e robot = off --wait 1 http://www.site.here –

0

file Download immagine fascino con un altro nome. Qui fornisco il nome del file wget.zip come mostrato di seguito.

# wget -O wget.zip http://ftp.gnu.org/gnu/wget/wget-1.5.3.tar.gz 
--2012-10-02 11:55:54-- http://ftp.gnu.org/gnu/wget/wget-1.5.3.tar.gz 
Resolving ftp.gnu.org... 208.118.235.20, 2001:4830:134:3::b 
Connecting to ftp.gnu.org|208.118.235.20|:80... connected. 
HTTP request sent, awaiting response... 200 OK 
Length: 446966 (436K) [application/x-gzip] 
Saving to: wget.zip 
100%[===================================================================================>] 446,966  60.0K/s in 7.5s 
2012-10-02 11:56:02 (58.5 KB/s) - wget.zip