Hadoop2.7.7集群搭建安装
修改主机名称
vim /etc/sysconfig/network
内容:HOSTNAME=master
分别修改其他主机HOSTNAME
修改hosts文件
- vim /etc/hosts
- 写入mater,slave1,slave2,。。。格式为 ip name 如:192.168.202.10 master
scp /etc/hosts slave1:/etc/hosts
将文件分别复制到从机中
主从免密登录
- 主节点 通过 ssh-keygen 回车。。。直到生成文件
- cd ~/.ssh
- 写入文件:
cat id_rsa.pub > authorized_keys
- 从节点 ssh-keygen生成文件
- cd ~/.ssh
- cat id_rsa.pub 将显示出的内容复制到主节点的authorized_keys中
- 全部复制完毕后,在主节点的.ssh目录下执行**scp authorized_keys slave1:~/.ssh/**复制到所有从节点中
- 验证 ssh slave1直接进入从机说明操作成功
Hadoop安装(1.0+和2.0+版本上有很多区别)
保证Java环境正常
Hadoop下载地址 选择稳定发行版,当前选择2.7.7
下载上传到CentOS中,tar -zxvf xxxx解压
修改/hadoop-2.7.7/etc/hadoop/hadoop-env.sh
将其中的JAVA_HOME修改为本机JAVA_HOME路径
修改hadoop/core-site.xml
hadoop 安装目录mkdir tmp创建临时文件夹
vim /usr/local/src/hadoop-2.7.7/etc/hadoop/core-site.xml
1 | <property> |
修改hadoop/mapred-site.xml
如果没有通过cp复制一份template文件并去掉template
打开mapred-site.xml
1 | <property> |
修改hadoop/hdfs-site.xml
配置hdfs副本数,默认3
1 |
|
修改yarn-site.xml
1 | <property> |
创建临时目录和文件目录
1 | mkdir /usr/local/src/hadoop-2.7.7/tmp |
配置环境变量
vim ~/.bashrc
HADOOP_HOME=/usr/local/src/hadoop-2.7.7
export PATH=$PATH:$HADOOP_HOME/bin
复制hadoop到其他从机
scp -rp xxx slave1:/hadoop
存放路径
禁用CentOS7防火墙
systemctl stop firewalld.service
停止防火墙进程
systemctl disable firewalld.service
禁止开机启动
关闭selinux setenforce 0
启动Hadoop
第一次启动需要格式化
进入bin目录
格式化 ./hdfs namenode -format
进入sbin目录
启动 ./start-all.sh
jps查看主从节点
主节点
从节点
检验是否成功
进入bin目录
1 | ./hadoop fs -put 任意文件 / |
无报错说明上传成功
1 | ./hadoop fs -ls / |
此时应该打印出刚才上传的文件
1 | ./hadoop fs -cat /test.txt |
查看文件内容是我们上传的
进入从节点执行查看命令,应该可以看到我们刚才上传的文件
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 野生Java程序员兼美食博主!
评论