Se il fattore di replica viene modificato nel cluster, ad esempio da 5 a 3 e il cluster viene riavviato, cosa succede ai vecchi blocchi di file? Saranno considerati come sovra replicati e cancellati o il fattore di replicazione è applicabile solo ai nuovi file? Ciò significa che i vecchi blocchi di file vengono replicati 5 volte e i nuovi blocchi di file (dopo il riavvio) vengono replicati 3 volte. Cosa succede se il cluster non viene riavviato?Modifica fattore di replica HDFS
risposta
Se il fattore di replica viene modificato nel cluster, ad esempio da 5 a 3 e il cluster viene riavviato, cosa succede ai vecchi blocchi di file?
Non succede nulla ai blocchi di file esistenti/vecchi.
Saranno considerati come sovradimensionati e verranno eliminati o il fattore di replica è applicabile solo ai nuovi file?
Il nuovo fattore di replica si applica solo ai nuovi file, poiché il fattore di replica non è un'impostazione a livello di HDFS ma un attributo per file.
Ciò significa che i vecchi blocchi di file vengono replicati 5 volte ei nuovi blocchi di file (dopo il riavvio) vengono replicati 3 volte.
È l'invertito di questo. I file esistenti con fattore di replica impostato su 3 continueranno a trasportare 3 blocchi. I nuovi file creati con un fattore di replica predefinito più elevato porteranno 5 blocchi.
Cosa succede se il cluster non viene riavviato?
Non succede nulla se si riavvia o non si riavvia il cluster. Poiché la proprietà è per file ed è guidata dai client durante la creazione di un file, non è necessario riavviare il cluster per modificare questa configurazione. Hai solo bisogno di aggiornare le configurazioni del tuo client.
Se si guarda a cambiare fattore di replica tutti i vecchi file, prendere in considerazione l'esecuzione del comando cambio replica: hadoop fs -setrep -R 5 /
Può qualcuno si prega di rispondere a questa domanda.? – user2470193