Il mio programma, che ho eseguito numerose volte su diversi cluster, si interrompe improvvisamente. Il registro:Apache Spark on EC2 "Killed"
15/04/20 19:19:59 INFO scheduler.TaskSetManager: Finished task 12.0 in stage 15.0 (TID 374) in 61 ms on ip-XXX.compute.internal (16/24)
15/04/20 19:19:59 INFO storage.BlockManagerInfo: Added rdd_44_14 in memory on ip-XXX.compute.internal:37999 (size: 16.0 B, free: 260.6 MB)
Killed
Cosa significa "Ucciso" e perché si verifica? Non ci sono altri errori.
Il processo è stato eseguito più volte per ore. Ora, tuttavia, si ferma dopo forse 20 secondi. Dice che c'è circa 255 Mb di memoria libera per nodo. Se lancio un nuovo cluster, funziona di nuovo bene. – monster