基于金山云平台的Hadoop集群部署(二)
四、 建立hadoop集群需要的工作文件夹利用以下命令在本地建立一些列文件夹,用作hadoop集群的工作目录。
mkdir/root/hadoop
mkdir/root/hadoop/tmp
mkdir/root/hadoop/var
mkdir/root/hadoop/dfs
mkdir/root/hadoop/dfs/name
mkdir/root/hadoop/dfs/data
这些文件夹在后面对hadoop相关的配置中也会用到。 五、 配置hadoop的java工作路径
在hadoop-2.8.0/etc/hadoop/hadoop-env.sh文件中,配置hadoop的java工作路径。
将export JAVAHOME=${JAVAHOME} 修改为: export JAVA_HOME=(你自己的java环境工作目录) 本机的工作路径如下: /lib/jvm/java-1.8.0-openjdk-1.8.0.131-3.b12.el7_3.x86_64/jre
配置完成后保存退出; 六、 配置core-site.xml文件
core-site.xml文件是hadoop集群的全局控制文件。
利用 vi/usr/hadoop/hadoop-2.8.0/etc/Hadoop/core-site.xml命令修改相关配置,在<configuration>和</configuration>标签之内添加进如下内容:
<property>
<name> hadoop.tmp.dir</name>
<value>/root/hadoop/tmp</value>
<description>Abase for other temporary directories.</description></property>
<property>
<name>fs.default.name< /name>
<value>hdfs://namenode1:9000< /value>
</property>
七、 配置hdfs-site.xml文件
hdfs-site.xml文件用来配置HDFS的保存副本数量、位置等存储的配置选项。
利用 vi/usr/hadoop/hadoop-2.8.0/etc/Hadoop/hdfs-site.xml命令修改相关配置,在<configuration>和</configuration>标签之内添加进如下内容:
<property>
<name>dfs.name.dir</name>
<value>/root/hadoop/dfs/name</value>
<description>Path on the local filesystem where theNameNode stores the namespace and transactions logs persistently.
</description>
</property>
<property>
<name>dfs.data.dir</name>
<value>/root/hadoop/dfs/data</value>
<description>Comma separated list of paths on the localfilesystem of a DataNode where it should store its blocks.
</description>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
<description>need not permissions</description>
</property>
八、 配置mapred-site.xml
mapred-site.xml文件用来配置MP运算位置及其他相关选项。
首先利用命令cp hadoop-2.8.0/etc/hadoop/mapred-site.xml.template hadoop-2.8.0/etc/hadoop/mapred-site.xml从mapred-site.xml. template复制出一个mapred-site.xml文件。
利用 vi/usr/hadoop/hadoop-2.8.0/etc/Hadoop/mapred-site.xml命令修改相关配置,在<configuration>和</configuration>标签之内添加进如下内容:
<property>
<name>mapred.job.tracker</name>
<value>namenode1:49001</value>
</property>
<property>
<name>mapred.local.dir</name>
<value>/root/hadoop/var</value>
</property>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
九、 配置slaves文件
利用 vi/usr/hadoop/hadoop-2.8.0/etc/Hadoop/slaves命令修改相关配置,将localhost修改为如下内容:
配置完后,整个集群即认为datanode为slaves节点。
十、 配置yarn-site.xml文件
yarn-site.xml文件用来配置hadoop的资源管理和任务调度。
利用 vi/usr/hadoop/hadoop-2.8.0/etc/Hadoop/mapred-site.xml命令修改相关配置,在<configuration>和</configuration>标签之内添加进如下内容:
<property>
<name>yarn.resourcemanager.hostname</name>
<value>namenode1
</property>
<property>
<description>The address of the applications manager interface in the RM.</description>
<name>yarn.resourcemanager.address</name>
<value>${yarn.resourcemanager.hostname}:8032</value>
</property>
<property>
<description>The address of the scheduler interface.</description>
<name>yarn.resourcemanager.scheduler.address</name>
<value>${yarn.resourcemanager.hostname}:8030</value>
</property>
<property>
<description>The http address of the RM web application.</description>
<name>yarn.resourcemanager.webapp.address</name>
<value>${yarn.resourcemanager.hostname}:8088</value>
</property>
<property>
<description>The https adddress of the RM web application.</description>
<name>yarn.resourcemanager.webapp.https.address</name>
<value>${yarn.resourcemanager.hostname}:8090</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>${yarn.resourcemanager.hostname}:8031</value>
</property>
<property>
<description>The address of the RM admin interface.</description>
<name>yarn.resourcemanager.admin.address</name>
<value>${yarn.resourcemanager.hostname}:8033</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.scheduler.maximum-allocation-mb</name>
<value>2048< /value>
<discription>每个节点可用内存,单位MB</discription>
</property>
<property>
<name>yarn.nodemanager.vmem-pmem-ratio</name>
<value>2.1</value>
</property>
<property>
<name>yarn.nodemanager.resource.memory-mb</name>
<value>2048</value>
</property>
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>
十一、 在每一个节点上(包含namenode与datanode)做相同的配置
十二、 配置Hadoop集群
12.1 初始化集群
切换到namenode节点,进入hadoop-2.8.0目录,利用bin/hadoopnamenode -format命令初始化hadoop集群:
成功后可以在看到在/root/hadoop/dfs/name/目录多了一个current目录,而且该目录内已经存放了一些配置文件则表示初始化成功:
12.2 启动集群
利用sbin/ start-dfs.sh启动HDFS服务,利用sbin/ start-yarn.sh启动yarn服务。
十三、 利用hadoop自带示例测试集群
13.1 本地建立文件夹
利用mkdir input命令在/usr/hadoop文件夹内建立本地input文件夹:
13.2 文件夹中放入要上传到hadoop的文件
在input文件夹内创建2个文件,本示例为test1.txt和test2.txt,在文件中随便输入一些字符:
13.3 上传文件到hadoop集群
利用bin/hadoopfs -mkdir/root及bin/hadoop fs -mkdir/root/in命令与bin/hadoop fs -mkdir /root/out命令,在hadoop集群上创建/root/in与root/out文件夹;其中/root/in文件夹是用作集群上保存文件的位置,而/root/out文件夹是用作集群输出结果保存的位置;
利用bin/hadoopfs -put /usr/hadoop/input//root/in/;将本地的input文件夹及内容上传到集群的/root/in/文件夹中,成功后可以利用bin/hadoop fs -ls /root/in/input命令查询出集群中的文件信息:
从信息中已经可以看到,test1.txt和test2.txt已经上传到集群中。
13.4 运行wordcount示例
利用bin/hadoopjar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.0.jar wordcount /root/in/input/root/out/output1 命令,统计文件中各单词的个数:
如果有以上信息,则表示运行成功。
以上为hadoop的集群搭建简单的过程,以后的系列中会继续介绍Hadoop其他组件(Spark、Hive、Pig、HUE…)的安装配置,并部署更复杂的集群,进行相关测试。
页:
[1]