配置文件:
默认的配置文件:相对应的jar 中
core-default.xml
hdfs-default.xml
yarn-default.xml
mapred-default.xml
自定义配置文件$HADOOP_HOME/etc/hadoop/
core.site.xml
hdfs-site.xml
yarn-site.xml
mapredu-site.xml
启动方式:
各个服务器组建逐一启动
* hdfs
hadoop-daemon.sh start|stop namenode|datanode|secondarynamenode
*yarn
yarn-daemon.sh start|stop resourcemanager|nodemanager
*mapreduce
mr-historyserver-daemon.sh start|stop historyserver
各个模块分开启动
* hdfs
start-dfs.sh stop-dfs.sh
*yarn
start-yarn.shstop-yarn.sh
全部启动(不推荐使用,几乎没人使用) 是因为启动hdfs,yarn 必须在主节点上 ,all 启动的话,这个节点必须是namenode 节点,也是resourcemanager节点,实际生产分布在不同机器,不同节点上
start-all.shstop-all.sh