Ho un web crawler python e voglio distribuire le richieste di download tra molti server proxy, probabilmente con il funzionamento di squid (anche se sono aperto alle alternative). Ad esempio, potrebbe funzionare in modalità round-robin, dove request1 passa a proxy1, request2 a proxy2 e alla fine torna indietro. Qualche idea su come impostare questo?Proxy rotanti per scraping web
Per rendere più difficile, mi piacerebbe anche essere in grado di modificare dinamicamente l'elenco dei proxy disponibili, ridurli e aggiungerne altri.
Se è importante, gli indirizzi IP vengono assegnati dinamicamente.
Grazie :)
Grazie, mi ha dato alcune buone idee, principalmente utilizzando un redis impostato per memorizzare l'elenco dei proxy e il comando srandmember per ottenere un proxy. – Jacob
@Jacob Puoi condividere il codice di esempio o il repository Github su come hai realizzato questo? – x0v