Finora ogni volta che avevo bisogno di usare multiprocessing
ho fatto così creando manualmente un "pool di processi" e condividendo una coda di lavoro con tutti i sottoprocessi.Come ottenere la quantità di "lavoro" che deve essere fatta da un pool di multiprocessing Python?
Ad esempio:
from multiprocessing import Process, Queue
class MyClass:
def __init__(self, num_processes):
self._log = logging.getLogger()
self.process_list = []
self.work_queue = Queue()
for i in range(num_processes):
p_name = 'CPU_%02d' % (i+1)
self._log.info('Initializing process %s', p_name)
p = Process(target = do_stuff,
args = (self.work_queue, 'arg1'),
name = p_name)
questo modo ho potuto aggiungere cose alla coda, che sarebbe stata consumata dai sottoprocessi. Potrei quindi monitorare quanto il trattamento è stato controllando la Queue.qsize()
:
while True:
qsize = self.work_queue.qsize()
if qsize == 0:
self._log.info('Processing finished')
break
else:
self._log.info('%d simulations still need to be calculated', qsize)
Ora immagino che multiprocessing.Pool
potrebbe semplificare molto questo codice.
Quello che non ho potuto scoprire è come posso monitorare la quantità di "lavoro" ancora da fare.
Prendiamo il seguente esempio:
from multiprocessing import Pool
class MyClass:
def __init__(self, num_processes):
self.process_pool = Pool(num_processes)
# ...
result_list = []
for i in range(1000):
result = self.process_pool.apply_async(do_stuff, ('arg1',))
result_list.append(result)
# ---> here: how do I monitor the Pool's processing progress?
# ...?
Tutte le idee?