2013-06-13 5 views
7

Se il fattore di replica viene modificato nel cluster, ad esempio da 5 a 3 e il cluster viene riavviato, cosa succede ai vecchi blocchi di file? Saranno considerati come sovra replicati e cancellati o il fattore di replicazione è applicabile solo ai nuovi file? Ciò significa che i vecchi blocchi di file vengono replicati 5 volte e i nuovi blocchi di file (dopo il riavvio) vengono replicati 3 volte. Cosa succede se il cluster non viene riavviato?Modifica fattore di replica HDFS

+0

Può qualcuno si prega di rispondere a questa domanda.? – user2470193

risposta

11

Se il fattore di replica viene modificato nel cluster, ad esempio da 5 a 3 e il cluster viene riavviato, cosa succede ai vecchi blocchi di file?

Non succede nulla ai blocchi di file esistenti/vecchi.

Saranno considerati come sovradimensionati e verranno eliminati o il fattore di replica è applicabile solo ai nuovi file?

Il nuovo fattore di replica si applica solo ai nuovi file, poiché il fattore di replica non è un'impostazione a livello di HDFS ma un attributo per file.

Ciò significa che i vecchi blocchi di file vengono replicati 5 volte ei nuovi blocchi di file (dopo il riavvio) vengono replicati 3 volte.

È l'invertito di questo. I file esistenti con fattore di replica impostato su 3 continueranno a trasportare 3 blocchi. I nuovi file creati con un fattore di replica predefinito più elevato porteranno 5 blocchi.

Cosa succede se il cluster non viene riavviato?

Non succede nulla se si riavvia o non si riavvia il cluster. Poiché la proprietà è per file ed è guidata dai client durante la creazione di un file, non è necessario riavviare il cluster per modificare questa configurazione. Hai solo bisogno di aggiornare le configurazioni del tuo client.

Se si guarda a cambiare fattore di replica tutti i vecchi file, prendere in considerazione l'esecuzione del comando cambio replica: hadoop fs -setrep -R 5 /