Hadoop

在單節點環境中完成 5 個 reducer 中的 1 個後,MapReduce 作業掛起

  • November 12, 2012

我在 EC2 上的開發環境中只有一個數據節點。我執行了繁重的 MR 工作,在 6 小時內註意到 100% 的映射器和 20% 的減速器完成(1 個減速器顯示 100% 的競爭,其他的 - 0%)。看起來工作在 2 次減速機執行之間掛起。我在日誌文件中看不到任何錯誤。

它可以是什麼?

PS 成功完成減速器的最後日誌:

2012-11-09 11:29:21,576 INFO org.apache.hadoop.mapred.Task: Task:attempt_201211090523_0004_r_000000_0 is done. And is in the process of commiting
2012-11-09 11:29:22,692 INFO org.apache.hadoop.mapred.Task: Task attempt_201211090523_0004_r_000000_0 is allowed to commit now
2012-11-09 11:29:22,719 INFO org.apache.hadoop.mapreduce.lib.output.FileOutputCommitter: Saved output of task 'attempt_201211090523_0004_r_000000_0' to /data/output/1352457275873/20121109-053433-common
2012-11-09 11:29:22,721 INFO org.apache.hadoop.mapred.Task: Task 'attempt_201211090523_0004_r_000000_0' done.
2012-11-09 11:29:22,725 INFO org.apache.hadoop.mapred.TaskLogsTruncater: Initializing logs' truncater with mapRetainSize=-1 and reduceRetainSize=-1

JobTracker 日誌包含以下警告消息:

2012-11-10 00:00:01,911 WARN org.apache.hadoop.mapred.JobInProgress: No room for reduce task. Node tracker_p-10-0-0-148.liveperson.com:localhost.localdomain/127.0.0.1:35533 has 71983820800 bytes free; but we expect reduce input to take 98282873836

沒有足夠的磁碟空間來執行作業。增加可用空間後解決。

引用自:https://serverfault.com/questions/447174