2.1.6 hadoop体系之离线计算-hdfs分布式文件系统-全分布式安装

梦里梦外; 2022-12-09 04:52 246阅读 0赞

目录

1.写在前面

2.安装条件

3.修改配置文件

3.1 修改hadoop-env.sh

3.2 修改core-site.xml文件

3.3 修改hdfs-site.xml

3.4 修改workers(从节点别名)

4.向node02,node03,node04分发安装hadoop

5.配置hadoop环境

6.主节点node01格式化当前NAMENODE节点-创建文件夹

7.在主节点node01上启动集群

7.1 打开node01监听端口:ss -nal


1.写在前面

  1. 之前在node01节点上搭建了一个伪分布式安装的hadoop,现在想利用我们手里的4台虚拟机,搭建一个4台主机的完全分布式的hadoop

2.安装条件

  1. 需要安装jdk环境和ssh免秘钥登陆
  2. 安装hadoop在:cd /opt/sxt/ 下面

20200922092604465.png

3.修改配置文件

  1. cd etc/hadoop 进入这个目录(集群启动的时候,只会读当前这个文件夹),其中有大量配置文件。

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1N1eWViaXViaXU_size_16_color_FFFFFF_t_70

3.1 修改hadoop-env.sh

  1. **直接启动 vi hadoop-en.sh,找到末尾,需要引入jdk环境变量,写上角色和对应进程,目前是需要三个角色:1namenode+2datanode。(一共四个配置项)**

echo $JAVA_HOME 可以输出路径

20200922093104720.png

3.2 修改core-site.xml文件

  1. 直接启动 vi core-site.xml ,文件本身没有任何配置信息,需要手动填写进来。localhost修改为节点的别名,一般默认端口开启9820,修改临时目录。

20200922093800405.png

  1. <configuration>
  2. <property>
  3. <name>fs.defaultFS</name>
  4. <value>hdfs://node01:9820</value>
  5. </property>
  6. <property>
  7. <name>hadoop.tmp.dir</name>
  8. <value>/var/sxt/hadoop/full</value>
  9. </property>
  10. </configuration>

3.3 修改hdfs-site.xml

  1. 直接启动 vi hdfs-site.xml replication代表的是副本的意思,副本保证了高可用。

20200922094009742.png

  1. <configuration>
  2. <property>
  3. <name>dfs.replication</name>
  4. <value>2</value>
  5. </property>
  6. <property>
  7. <name>dfs.namenode.secondary.http-address</name>
  8. <value>node02:9868</value>
  9. </property>
  10. </configuration>

3.4 修改workers(从节点别名)

20200922094124357.png

4.向node02,node03,node04分发安装hadoop

  1. node02下面没有sxt文件夹,但是有opt,所以将sxt整个发给他们。

2020092209433159.png

2020092209444857.png

20200922094513875.png

5.配置hadoop环境

  1. 查找到hadoop所在文件夹:

20200922094726825.png

  1. 编译profile文件:vi + /etc/profile ,添加HADOOP\_HOMEPATH

20200922094927772.png

  1. 分发到其他三个节点:

20200922095046424.png

  1. 重读profile文件(四台机器都要做)

2020092209515532.png

6.主节点node01格式化当前NAMENODE节点-创建文件夹

  1. 执行:hdfs namenode -format

20200922095336726.png

  1. 查看最后执行结果:

20200922095435752.png

  1. 文件夹下面也会多了一个集群的ID信息。

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1N1eWViaXViaXU_size_16_color_FFFFFF_t_70 1

  1. 其他三个节点是没有这些文件的,因为我们只是在主节点上创建的。存放的就是元数据信息。

7.在主节点node01上启动集群

  1. 直接使用start-dfs.sh命令就可以启动:
  2. node01namenode
  3. node02secondaryNamenodedatanode
  4. node03datanode
  5. node04datanode

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1N1eWViaXViaXU_size_16_color_FFFFFF_t_70 2

7.1 打开node01监听端口:ss -nal

20200922100210677.png

  1. 浏览器访问:node01:9870(192.138.0.101:9870)

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1N1eWViaXViaXU_size_16_color_FFFFFF_t_70 3

  1. 有一个主节点NameNode用来存储元数据信息,还有文件持久化合并的secondaryNameNode,三个存放数据的从节点datanode

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1N1eWViaXViaXU_size_16_color_FFFFFF_t_70 4

发表评论

表情:
评论列表 (有 0 条评论,246人围观)

还没有评论,来说两句吧...

相关阅读