Desidero scaricare alcune pagine HTML da http://abc.com/view_page.aspx?ID= L'ID proviene da una matrice di numeri diversi.Scrittura intelligente dello schermo utilizzando diversi proxy e user-agent in modo casuale?
Sarei interessato a visitare più istanze di questo URL e salvare il file come [ID] .HTML utilizzando diversi IP/porte proxy.
Voglio utilizzare diversi user-agent e voglio randomizzare i tempi di attesa prima di ogni download.
Qual è il modo migliore per farlo? urllib2? pycurl? arricciare? Cosa preferisci per il compito a portata di mano?
Si prega di avvisare. Grazie ragazzi!
Perché vuoi randomizzare gli user-agent? –
Non voglio rivelare che sono io a scaricare la pagina. Per aumentarlo, se usiamo i vari browser in modo casuale, questo solidificherà il mio anonimato, cosa dici? – ThinkCode