加入收藏 | 设为首页 | 会员中心 | 我要投稿 揭阳站长网 (https://www.0663zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 云计算 > 正文

详细解析 hadoop 分布式布局

发布时间:2022-05-13 12:34:17 所属栏目:云计算 来源:互联网
导读:详细解析 hadoop 分布式布局: 1.硬件环境 共有 3 台机器,均使用的 linux 系统,Java 使用的是 jdk1.6.0。 配置如下: hadoop1.example.com:192.168.2.1(NameNode) hadoop2.example.com:192.168.2.2(DataNode) hadoop3.example.com:192.168.2.3 (DataNode) had

 
5.hadoop配置文件
 
$cd /home/hadoop/hadoop/conf
 
conf/core-site.xml:
 
复制
<configuration>
     <property>
         <name>fs.default.name</name>
         <value>hdfs://hadoop1.example.com:9000</value>
     </property></configuration>
 
conf/hdfs-site.xml:
 
复制
<configuration>
     <property>
         <name>dfs.replication</name>
         <value>2</value>
     </property></configuration>
 
conf/mapred-site.xml:
 
复制
<configuration>
     <property>
         <name>mapred.job.tracker</name>
         <value>hadoop1.example.com:9001</value>
     </property></configuration>
 
伪分布式测试:
 
$mkdir ~/bin
 
$ln -s /home/hadoop/hadoop/jdk/bin/jps ~/bin/
 
$cd /home/hadoop/hadoop/
 
$bin/hadoop namenode -format  先进行初始化
 
$bin/start-all.sh
 
web测试192.168.2.1:50070
 
192.168.2.1:50030
 
$rm -fr input/ output/ test/
 
$bin/hadoop fs -mkdir input
 
$bin/hadoop fs -put conf input
 
$bin/hadoop fs -lsr
 
192.168.2.1:50075下查看/usr/hadoop/input是否有变化
 
6.部署Hadoop
 
前面讲的这么多 Hadoop 的环境变量和配置文件都是在 hadoop1 这台机器上的,现在需要将 hadoop 部署到其他的机器上,保证目录结构一致。
 
$scp -r /home/hadoop/hadoop hadoop2.example.com:/home/hadoop/
 
$scp -r /home/hadoop/hadoop hadoop3.example.com:/home/hadoop/
 
$scp -r .ssh/ hadoop2:
 
$scp -r .ssh/ hadoop3:
 
注意还要修改以下文件:
 
$cd /home/hadoop/hadoop/conf
 
conf/masters
 
复制
hadoop1.example.com
 
conf/slaves
 
复制
hadoop2.example.com
hadoop3.example.com
 
$ln -s hadoop-1.2.1/ hadoop
 
$mkdir ~/bin
 
$ln -s ~/hadoop/jdk/bin/jps ~/bin
 
至此,可以说,Hadoop 已经在各个机器上部署完毕了,下面就让我们开始启动 Hadoop 吧。
 
7. 启动 Hadoop
 
启动之前,我们先要格式化 namenode,先进入~/hadoop/目录,执行下面的命令:
 
复制
$bin/hadoop namenode –format
1.
不出意外,应该会提示格式化成功。如果不成功,就去 hadoop/logs/目录下去查看日志文件。
 
下面就该正式启动 hadoop 啦,在 bin/下面有很多启动脚本,可以根据自己的需要来启动。
 
* start-all.sh 启动所有的 Hadoop 守护。包括 namenode, datanode, jobtracker,tasktrack
 
* stop-all.sh 停止所有的 Hadoop
 
* start-mapred.sh 启动 Map/Reduce 守护。包括 Jobtracker 和 Tasktrack
 
* stop-mapred.sh 停止 Map/Reduce 守护
 
* start-dfs.sh 启动 Hadoop DFS 守护.Namenode 和 Datanode
 
* stop-dfs.sh 停止 DFS 守护
 
在这里,简单启动所有守护:
 
复制
[hadoop@hadoop1:hadoop]$bin/start-all.sh  
$jps
 
查看JobTracker,Jps,SecondaryNameNode,NameNode是否启动成功。
 
同样,如果要停止 hadoop,则
 
复制
[hadoop@hadoop1:hadoop]$bin/stop-all.sh
 

(编辑:揭阳站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!