一、分别启动HDFS和MapReduce
#启动
start-dfs.sh
start-mapred.sh
#停止
stop-mapred.sh
stop-dfs.sh
二、全部启动或停止
#启动:
start-all.sh
#启动顺序:
NameNode->DataNode->SecondaryNameNode->JobTracker->TaskTracker
#停止:
stop-all.sh
#停止顺序:
JobTracker->TaskTracker->NameNode->DataNode->SecondaryNameNode
三、逐一启动
#启动:
hadoop-daemon.sh start namenode
hadoop-daemon.sh start datanode
hadoop-daemon.sh start secondarynamenode
hadoop-daemon.sh start jobtracker
hadoop-daemon.sh start tasktracker
#停止:
hadoop-daemon.sh stop jobtracker
hadoop-daemon.sh stop tasktracker
hadoop-daemon.sh stop namenode
hadoop-daemon.sh stop datanode
hadoop-daemon.sh stop secondarynamenode
注意 正常情况下,我们是不使用
start-all.sh
和stop-all.sh
来启动和停止Hadoop
集群的。这样出错了不好找原因。建议读者一个一个守护进程来启动,哪个启动失败就去看相应的log日志,这样就缩小了找错的范围。