设为首页 收藏本站
查看: 695|回复: 0

[经验分享] 一起研究hadoop(一):hadoop的伪分布式安装配置

[复制链接]

尚未签到

发表于 2016-12-8 11:17:33 | 显示全部楼层 |阅读模式
  目前hadoop如日中天,只要是涉及到云计算就一定会有hadoop的身影,这是为什么呢?我个人觉得主要是因为hadoop在海量信息的存储和海量信息的分析做得非常出色!目前也有很多人已经在研究hadoop了,为此我觉得我也应该跟随前者的脚步,我也相信你也是!
  多余的话不说了,进入主题:
  第一:
  由于安装hadoop是要在linux环境下的,但是我们的操作系统是windows的,为此我们需要先安装好虚拟机。
  我这安装的是:VMware Player(到官网下,这是免费的,地址:http://www.vmware.com/cn),同时我安装的linux操作系统是ubuntu(也是免费的,地址:http://www.ubuntu.org.cn)。安装虚拟机的过程,我就不细讲了。
  第二:
  安装好ubuntu操作系统后,建议马上安装ssh。很简单,进入ubuntu的操作终端,输入命令:
  sudo apt-get install openssh-server(如果你的linux操作系统不同,该命令有可会不一样
  安装好ssh后,你就可以远程访问ubuntu操作系统了,比如你可以下载putty这样的软件来访问,这是由于直接在VMware Player下操作不是很方便,所以一般会通过远程来访问。
  第三:
  配置samba实现文件夹共享
  配置samba的目的是你能够很方便的将你windows操作系统上的东西放到虚拟机里面,其实这时只需要ctrl + c,然后ctrl + v。
  (1)首先安装samba:
  sudo apt-get install samba
  (2)创建共享目录:
  mkdir /home/cloud/share
  sodu chmod 777 /home/cloud/share
  (3)修改配置文件
  sudo vim /etc/samba/smb.conf(如果你的ubuntu操作系统中没有vim编辑器,可以通过sudo apt-get install vim 下载安装vim
  在smb.conf最后添加如下内容:
  [share]
path = /home/cloud/share
available = yes
browseable = yes
public = yes
writable = yes
  (4)创建samba帐户
  sudo touch /etc/samba/smbpasswd
sudo smbpasswd -a cloud
  然后会要求你输入samba帐户的密码
  (5)重启samba服务器
  service smbd restart
  (6)使用
  你在windows操作系统中,按windows键+R即打开运行命令,然后你输入:\\ubuntu机器的ip或主机名\share,即可进入共享目录。
  第四:
  由于hadoop是用java编写的,所以我们应该为虚拟机安装jdk。
  到官网上下载版本相对较高的linux版本的jdk。
  安装好jdk后,就要配置环境变量了,用文本编辑器打开/etc/profile,即sudo vim /etc/profile
  然后在最后写入:
  export JAVA_HOME=/usr/java/jdk1.6.0_13
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
  编辑好后,输入source /etc/profile命令。然后输入java,即看到如图所示就配置成功了:
DSC0000.png
 
  第六:
  安装配置hadoop
  我使用的hadoop的版本是1.2.1的
  (1)首先通过共享目录将hadoop-1.2.1.tar.gz文件复制到虚拟机当中。
  (2)通过命令:tar zxvf hadoop-1.2.1.tar.gz将该文件解开,会在当前目录下生成一个文件夹名为hadoop-1.2.1。
  (3)修改conf/Hadoop-env.sh,添加jdk配置
  export JAVA_HOME=/usr/java/jdk1.6.0_13
  (4)修改conf/core-site.xml,在<configuration></configuration>中添加如下内容:
  <property>
        <name>fs.default.name</name>
        <value>hdfs://localhost:9000</value>
</property>
  
(5).修改conf/hdfs-site.xml,在<configuration></configuration>中添加如下内容:
  <property>
        <name>dfs.name.dir</name>
        <value>/home/share/hadoop-1.2.1/name</value>
</property>
<property>
        <name>dfs.data.dir</name>
        <value>/home/share/hadoop-1.2.1/data</value>
</property>
<property>
        <name>dfs.replication</name>
        <value>1</value>
</property>注意:此时你应该在hadoop-1.2.1目录下建好name和data两个文件夹,建好文件后,建议分别输入如下命令:
  sudo chmod 777 name
  sudo chmod 755 data
  (6)修改conf/mapred-site.xml,在<configuration></configuration>中添加如下内容:
  <property>
        <name>mapred.job.tracker</name>
        <value>localhost:9001</value>
</property>
  (7)修改conf/masters,这个决定那个是secondarynamenode,添加如下内容:
  localhost
  (8)修改conf/slaves,这个是所有datanode的机器,添加如下内容:
  localhost
  (9)为hadoop添加环境变量,即在/etc/profile中添加:
  export HADOOP_HOME=/home/share/hadoop-1.2.1
  对于PATH,只要将其修改成如下即可:
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$PATH
  编辑好后,同样要输入source /etc/profile命令。
  (10)格式化hdfs文件系统的namenode,输入如下命令:
  hadoop namenode -format
  (11)启动Hadoop集群,输入如下命令:
  start-all.sh
  (12)启动完成后,输入jps命令后,可以看到如图所示的java进程,说明hadoop的环境配置成功了!
  
DSC0001.png
 

运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.iyunv.com/thread-311461-1-1.html 上篇帖子: hadoop学习笔记之一:初识hadoop请在这里输入日志标题 下篇帖子: hadoop搭建进阶,多台机器分布式搭建
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表