Eventuali duplicati:
Multiple (asynchronous) connections with urllib2 or other http library?Metodo ideale per inviare più richieste HTTP su Python?
Sto lavorando su un web server Linux che esegue il codice Python per afferrare dati in tempo reale su HTTP da un 3 ° API partito. I dati vengono inseriti in un database MySQL. Ho bisogno di fare molte domande a molti URL, e ho bisogno di farlo velocemente (più veloce = meglio). Attualmente sto usando urllib3 come libreria HTTP. Qual è il modo migliore per farlo? Devo generare più thread (se sì, quanti?) E avere ogni query per un URL diverso? Mi piacerebbe sentire i tuoi pensieri su questo - grazie!
Voglio usare questo metodo per inviare richieste a circa 50.000 url. È una buona strategia? Inoltre, che dire delle eccezioni come il timeout, ecc.? – John
@John Sì, lo è. Per quanto riguarda le eccezioni vedi il parametro ['safe_mode'] (http://requests.readthedocs.org/en/latest/api/) e il problema [953] (https://github.com/kennethreitz/requests/pull/953) –
Non posso inviare più di 30 richieste utilizzando grequest. Quando lo faccio, ricevo "Max tentativi superati con url: ..., Troppi file aperti". C'è comunque un modo per risolvere questo problema? – AliBZ