设为首页 收藏本站
查看: 696|回复: 0

[经验分享] hadoop安装及配置流程

[复制链接]

尚未签到

发表于 2016-12-5 07:57:13 | 显示全部楼层 |阅读模式
  <div class="iteye-blog-content-contain" style="font-size: 14px"></div>
Hadoop环境配置以及安装过程:
<!--[1、Linux系统安装,以及网络的搭建
1.1 网络的选择为host-only模式
1.2 启动vmwave的虚拟网络配置器
1.3修改ip地址,将VMware网络配置器中的iP地址设置成192.168.80.1,在Linux中网络连接中将连接更改为manual(自定义),并设定ip地址192.168.80.X,只需要网关为192.168.80.1
1.4 验证ip地址设定是否成功,在本机cmd模式下,ping 192.168.80.X,并在Linux中终端ping 192.168.80.1,若能ping通,则网络设置成功。
2、主机名的更改,绑定iP与主机名
2.1 执行命令hostname demo1,将主机名修改为demo1
2.2 执行命令vi /etc/hosts ,并将192.168.80.9  demo1, 添加至文件中,保存并退出
2.3 执行命令 vi /etc/sysconfig/network ,hostname 的值修改为demo1,保存退出
2.4 执行命令source /etc/sysconfig/network ,激活文件
3、安装jdk
3.1 拷贝文件,使用winscpjdk文件、Hadoop文件拷贝至/usr/local 文件下
3.2 执行命令 ./jdk-6u24-linux-i585.bin得到文件jdk-----
3.3 执行命令mv jdk----   jdk 将文件名修改为jdk
3.4 配置环境变量 执行vi /etc/profile 打开文件profile,并添加
Export JAVA_HOME=/usr/local/jdk
Export PATH=.:$PATH:$JAVA_HOME/bin
3.4 保存关闭后,在shell命令下执行source  /etc/profile 来激活配置文件
3.5 使用JavajavacJava -version来验证是否安装成功
4、关闭防火墙
4.1 执行命令service iptables status 来查看防火墙的状态消息
4.2 执行命令 service iptables stop 来关闭防火墙
4.3 执行命令chkconfig iptables off 来关闭防火墙的自动运行
4.4 执行命令chkconfig --list | grep iptables 来查看是否关闭服务自动启动设置
5、设置SSH免密码登陆
5.1 执行命令 cd /root/.ssh 切换到文件.ssh文件下
5.2 执行命令ssh-keygen -t rsa 来创建公钥,ssh-keygen -t  rsa”表示使用 rsa 加密方式生成密钥
5.3 执行命令cp id_rsa.pub authorized_keys 将文件复制至authorized_keys
5.4 验证连接 ssh localhost ,并执行exit返回至.ssh文件下
6、安装Hadoop
6.1 执行命令 tar -zxvf hadoop-1.1.2.tar.gz 解压Hadoop压缩文件
6.2 执行命令mv hadoop-1.1.2 hadoop 将文件名修改为Hadoop
6.3 修改环境变量 :执行命令 vi  /etc/profile,添加
Export  HADOOP_HOME=/usr/local/hadoop
修改  PATH=.:$HADOOP_HOME/BIN:$JAVA_HOME/BIN:$PATH(在配置环境变量时PATH=.....必须放在最后,否则将无法识别在PATH后面的变量)
2014-08-18
Hdfs文件系统下的命令:
Hadoop fs -ls:显示hdfs下的文件
Hadoop fs -lsr:递归查询hdfs系统下所有的文件
Hadoop fs -mkdir ./d1:hdfs系统的home目录下创建一个文件夹d1
Hadoop fs -put <原路径> <目的路径>:把数据上传到目的路径
Hadoop fs -get <原路径> <目的路径:把数据从原路径下载到目的路径下
Hadoopfs -tetx <文件>:查看文件
Hadoop fs -rm:删除文件
Hadoop fs -rmr :删除目录
<!--EndFragment-->

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-309679-1-1.html 上篇帖子: hadoop+hbase+zookeeper配置 下篇帖子: hadoop 二次排序
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表