操作方法
1、打开三台虚拟机Master、Slave1、Slave2;
2、在Master节点中,解压Hadoop文件; 即输入命令: cd /usr/local/src/; ls tar xvzf hadoop-1.2.1-bin.tar.gz 如下图所示,Hadoop压缩文件则解压成功。
解压成功后,src目录下将新生出hadoop-1.2.1目录;
3、进入hadoop-1.2.1目录,新增一个文件,用来存放之后的临时文件; 输入命令:mkdir tmp
接下来,将修改配置文件: 进入hadoop的配置文件中: 4、修改master配置文件,输入内容为master; 输入命令: cd conf vi master;输入master; 保存并退出;
5、修改slaves配置文件,输入两个节点名称; 输入命令: vi slaves; 输入内容为slave1 slave2; 保存并退出;
6、修改core-site.xml配置文件; 输入命令: vi core-site.xml; 配置tmp的路径、namenode的URI; 保存并退出;
7、修改mapred-site.xml 配置文件; 输入命令: vi mapred-site.xml 配置job.tracker的URI; 保存并退出;
8、修改hdfs-site.xml 配置文件; 输入命令: vi hdfs-site.xml,配置副本数; 保存并退出;
9、修改hadoop-env.sh 配置文件; 输入命令: vi hadoop-env.sh ,配置Jdk的目录; 保存并退出;
10、查看刚刚所有的修改的配置文件; 输入命令: ls -rlt; 则配置文件一共需要配置六个文件。
在Master虚拟机中,对于Hadoop的配置已经配置完毕。
11、接下来,将hadoop文件依次拷贝到Slave1、Slave2虚拟机上; 输入命令: scp -rp hadoop-1.2.1 192.168.26.11:/usr/local/src/ scp -rp hadoop-1.2.1 192.168.26.12:/usr/local/src/ 如下图所示,文件已经拷贝完毕。
12、分别进入Slave1、Slave2的虚拟机上,查看/usr/local/src/目录下是否存在hadoop文件; 如下图所示,hadoop文件已经拷贝到Slave1和Slave2上。
综上所述,Master、Slave1、Slave2虚拟机对于hadoop的配置均配置完毕。