2012-08-23 10 views
7

Io sono il download di file su HTTP e visualizzare lo stato di avanzamento utilizzando urllib e il seguente codice - che funziona bene:Annulla slow scaricare in python

import sys 
from urllib import urlretrieve 

urlretrieve('http://example.com/file.zip', '/tmp/localfile', reporthook=dlProgress) 

def dlProgress(count, blockSize, totalSize): 
    percent = int(count*blockSize*100/totalSize) 
    sys.stdout.write("\r" + "progress" + "...%d%%" % percent) 
    sys.stdout.flush() 

ora vorrei anche per riavviare il download se si sta andando troppo lento (diciamo meno di 1 MB in 15 secondi). Come posso raggiungere questo obiettivo?

+1

È possibile generare un'eccezione nel reportage. – Tobold

+1

Sì, sollevare un'eccezione sembra essere il modo popolare per interrompere il download, da una rapida occhiata a Google. Tuttavia non è menzionato nella documentazione, il che mi fa temere che potrebbe avere un comportamento inaspettato. Ad esempio, forse i dati vengono recuperati da un thread dedicato e il lancio di un'eccezione lo renderà orfano e in realtà non interromperà il download. – Kevin

risposta

4

Questo dovrebbe funzionare. Calcola la velocità di download effettiva e si interrompe se è troppo basso.

import sys 
from urllib import urlretrieve 
import time 

url = "http://www.python.org/ftp/python/2.7.3/Python-2.7.3.tgz" # 14.135.620 Byte 
startTime = time.time() 

class TooSlowException(Exception): 
    pass 

def convertBToMb(bytes): 
    """converts Bytes to Megabytes""" 
    bytes = float(bytes) 
    megabytes = bytes/1048576 
    return megabytes 


def dlProgress(count, blockSize, totalSize): 
    global startTime 

    alreadyLoaded = count*blockSize 
    timePassed = time.time() - startTime 
    transferRate = convertBToMb(alreadyLoaded)/timePassed # mbytes per second 
    transferRate *= 60 # mbytes per minute 

    percent = int(alreadyLoaded*100/totalSize) 
    sys.stdout.write("\r" + "progress" + "...%d%%" % percent) 
    sys.stdout.flush() 

    if transferRate < 4 and timePassed > 2: # download will be slow at the beginning, hence wait 2 seconds 
     print "\ndownload too slow! retrying..." 
     time.sleep(1) # let's not hammer the server 
     raise TooSlowException 

def main(): 
    try: 
     urlretrieve(url, '/tmp/localfile', reporthook=dlProgress) 

    except TooSlowException: 
     global startTime 
     startTime = time.time() 
     main() 

if __name__ == "__main__": 
    main() 
+0

Bello, proprio quello di cui avevo bisogno, grazie. –

+0

Si noti che questo funzionerà solo in caso di rallentamento della connessione. La solita connessione interrotta non funzionerà a meno che non si aggiunga un timeout al socket. Altrimenti, OK! +1 –

3

Qualcosa di simile a questo:

class Timeout(Exception): 
    pass 

def try_one(func,t=3): 
    def timeout_handler(signum, frame): 
     raise Timeout() 

    old_handler = signal.signal(signal.SIGALRM, timeout_handler) 
    signal.alarm(t) # triger alarm in 3 seconds 

    try: 
     t1=time.clock() 
     func() 
     t2=time.clock() 

    except Timeout: 
     print('{} timed out after {} seconds'.format(func.__name__,t)) 
     return None 
    finally: 
     signal.signal(signal.SIGALRM, old_handler) 

    signal.alarm(0) 
    return t2-t1 

La chiamata 'try_one' con il func si desidera timeout e il tempo di timeout:

try_one(downloader,15) 

O, si può fare questo:

import socket 
socket.setdefaulttimeout(15) 
+1

Questa è una buona soluzione se stai scaricando piccoli file di dimensioni note. Se non conosci la dimensione in anticipo, non saprai quanti secondi passare a 'try_one'. E se stai scaricando un file da 100MB, 'try_one (downloader, 1500)' non si arrenderà prima che siano trascorsi 1500 secondi. Preferibilmente, smetterebbe non appena si è sicuri che il download non finirà in tempo. – Kevin

+0

Sì, d'accordo. Grazie per la soluzione, ma vorrei annullare in base alla soglia minima di throughput non se il download è stato completato entro un certo timeout. –

+0

@HolyMackerel: basta modificare il proprio hook di report per avere un timeout a intervalli di 10 secondi e controllare la velocità. Il problema è un download sospeso in cui 0 byte vengono rinviati e il tuo hook di report non viene mai chiamato. –

0

HolyMackerel! Usa gli strumenti!

import urllib2, sys, socket, time, os 

def url_tester(url = "http://www.python.org/ftp/python/2.7.3/Python-2.7.3.tgz"): 
    file_name = url.split('/')[-1] 
    u = urllib2.urlopen(url,None,1)  # Note the timeout to urllib2... 
    file_size = int(u.info().getheaders("Content-Length")[0]) 
    print ("\nDownloading: {} Bytes: {:,}".format(file_name, file_size)) 

    with open(file_name, 'wb') as f:  
     file_size_dl = 0 
     block_sz = 1024*4 
     time_outs=0 
     while True:  
      try: 
       buffer = u.read(block_sz) 
      except socket.timeout: 
       if time_outs > 3: # file has not had activity in max seconds... 
        print "\n\n\nsorry -- try back later" 
        os.unlink(file_name) 
        raise 
       else:    # start counting time outs... 
        print "\nHmmm... little issue... I'll wait a couple of seconds" 
        time.sleep(3) 
        time_outs+=1 
        continue 

      if not buffer: # end of the download    
       sys.stdout.write('\rDone!'+' '*len(status)+'\n\n') 
       sys.stdout.flush() 
       break 

      file_size_dl += len(buffer) 
      f.write(buffer) 
      status = '{:20,} Bytes [{:.2%}] received'.format(file_size_dl, 
              file_size_dl * 1.0/file_size) 
      sys.stdout.write('\r'+status) 
      sys.stdout.flush() 

    return file_name 

Stampa uno stato come previsto. Se si scollega il mio cavo ethernet, ottengo:

Downloading: Python-2.7.3.tgz Bytes: 14,135,620 
      827,392 Bytes [5.85%] received 


sorry -- try back later 

Se si scollega il cavo, poi ricollegarlo in meno di 12 secondi, ottengo:

Downloading: Python-2.7.3.tgz Bytes: 14,135,620 
      716,800 Bytes [5.07%] received 
Hmmm... little issue... I'll wait a couple of seconds 

Hmmm... little issue... I'll wait a couple of seconds 
Done! 

Il file viene scaricato correttamente.

È possibile vedere che urllib2 supporta entrambi i timeout e riconnette. Se si disconnette e si rimane disconnessi per 3 * 4 secondi == 12 secondi, si interromperà per sempre e si genererà un'eccezione irreversibile. Questo potrebbe essere affrontato pure.

+0

Grazie, è una buona soluzione ma cattura download in stallo anziché download lenti. –