Dopo aver corretto il codice di un sito Web per utilizzare un CDN (riscrivendo tutti gli URL nelle immagini, js & css), Ho bisogno di testare tutte le pagine del dominio per assicurarmi che tutte le risorse vengano recuperate dal CDN.Come scaricare un sito Web completo?
Tutte le pagine dei siti sono accessibili tramite link, senza pagine isolate.
Attualmente sto usando Firebug e controllando la vista "Netto" ...
C'è qualche modo automatizzato per dare un nome di dominio e richiedere tutte le pagine + risorse del dominio?
Aggiornamento:
OK, ho trovato che posso usare wget
come così:
wget -p --no-cache -e robots=off -m -H -D cdn.domain.com,www.domain.com -o site1.log www.domain.com
opzioni spiegate:
-p
- risorse scaricare troppo (immagini, css , js, ecc.)--no-cache
- ottenere l'oggetto reale, non voler tornare di server cache oggetto-e robots=off
- disprezzorobots
eno-follow
direzioni-m
- sito mirror (seguire i link)-H
- host campata (seguire altri domini troppo)-D cdn.domain.com,www.domain.com
- specificare i domini strega da seguire, altrimenti seguirà tutti i link dalla pagina-o site1.log
- accedere a file site1.log-U "Mozilla/5.0"
- opzionale: falsificare l'user agent - utile se il server restituisce i dati differenti per i diversi navigatorewww.domain.com
- il sito per scaricare
Enjoy!
+1 Risposta piacevole. – Graham
Grazie per la risposta dettagliata! Il -H ha risolto il mio problema. Voglio scaricare i file dal CDN per vedere che sono tutti collegati correttamente, se non sono wget avrà un errore. – SimonW