从零搭建一个hadoop

小鱼儿 2022-03-01 04:27 420阅读 0赞

从零搭建一个hadoop

  • 配置ssh免密登陆
  • 配置java环境变量
  • 配置Hadoop环境变量
  • 配置核心组件文件
  • 配置文件系统
  • 配置yarn
  • 配置MapReduce计算框架文件
  • 配置Master的slaves文件
  • 复制Master上的hadoop到slave节点
  • 格式化文件系统
  • 启动和关闭hadoop
  • 验证hadoop是否启动成功

配置ssh免密登陆

首先自己有2台主机,

给他设置好hostname

  1. vi /etc/hosts

改成你需要的host 任意个.

然后需要设置一下ssh免密登陆

  1. ssh-keygen -t rsa

一路按回车

  1. cd /root/.ssh/

把刚刚生成的免密登陆复制到authorized_keys里面.

  1. cat id_rsa.pub >> authorized_keys

需要在子系统做这些操作 让这些操作系统都可以免密登陆.

配置java环境变量

解压下载好的java后

  1. vi /etc/profile

加入java的路径配置

  1. export JAVA_HOME=/opt/wacos/tools/jdk8
  2. export PATH=$JAVA_HOME/bin:$PATH

然后

  1. source /etc/profile

配置Hadoop环境变量

解压下载好的hadoop后

  1. vi /etc/profile

加入java的路径配置

  1. export HADOOP_HOME=/opt/wacos/hadoop
  2. export PATH=$HADOOP_HOME/bin:$PATH

然后

  1. source /etc/profile

接下来

  1. vi /opt/wacos/hadoop/etc/hadoop/hadoop-env.sh

​​​​hadoop config
把里面的export JAVA_HOME换成你当前的java路径.

配置核心组件文件

  1. vi /opt/wacos/hadoop/etc/hadoop/core-site.xml

需要将下面的配置代码放在文件中的configuration之间

  1. <property>
  2. <name>fs.defaultFS</name>
  3. <value>hdfs://ut102:9000</value>
  4. </property>
  5. <property>
  6. <name>hadoop.tmp.dir</name>
  7. <value>/opt/wacos/hadoopdata</value>
  8. </property>

这里注意要在所有节点进行创建目录,目录的地址是hadoop.tmp.dir

  1. mkdir /opt/wacos/hadoopdata

配置文件系统

  1. vi /opt/wacos/hadoop/etc/hadoop/hdfs-site.xml

需要将下面的配置代码放在文件中的configuration之间

  1. <property>
  2. <name>dfs.replication</name>
  3. <value>1</value>
  4. </property>

配置yarn

  1. vi /opt/wacos/hadoop/etc/hadoop/yarn-site.xml

需要将下面的配置代码放在文件中的configuration之间

  1. <property>
  2. <name>yarn.nodemanager.aux-services</name>
  3. <value>mapreduce_shuffle</value>
  4. </property>
  5. <property>
  6. <name>yarn.resourcemanager.address</name>
  7. <value>ut102:18040</value>
  8. </property>
  9. <property>
  10. <name>yarn.resourcemanager.scheduler.address</name>
  11. <value>ut102:18030</value>
  12. </property>
  13. <property>
  14. <name>yarn.resourcemanager.resource-tracker.address</name>
  15. <value>ut102:18025</value>
  16. </property>
  17. <property>
  18. <name>yarn.resourcemanager.admin.address</name>
  19. <value>ut102:18141</value>
  20. </property>
  21. <!-- Site specific YARN configuration properties -->
  22. <property>
  23. <name>yarn.resourcemanager.webapp.address</name>
  24. <value>ut102:18088</value>
  25. <!-- This port defaults to 8088 -->
  26. </property>

配置MapReduce计算框架文件

系统已有了一个mapred-site.xml.template 文件,我们需要将其改名
命令是

  1. mv mapred-site.xml.template mapred-site.xml

然后编辑

  1. vi /opt/wacos/hadoop/etc/hadoop/mapred-site.xml

需要将下面的配置代码放在文件中的configuration之间

  1. <property>
  2. <name>mapreduce.framework.name</name>
  3. <value>yarn</value>
  4. </property>

配置Master的slaves文件

  1. vi /opt/wacos/hadoop/etc/hadoop/slaves

将自己的slave的ip或者是hostname放入slaves中 如图
pron image

复制Master上的hadoop到slave节点

  1. scp -r /opt/wacos/hadoop root@ut101:/opt/wacos/hadoop

格式化文件系统

该操作只需要在Master节点进行,命令是

  1. hdfs namenode -format

启动和关闭hadoop

完成上述准备即可启动hadoop了,

  1. ./opt/wacos/hadoop/sbin/start-all.sh

验证hadoop是否启动成功

使用 jps 命令
查看secondaryNameNode,ResourceManager,NameNode
有这3个进程就是启动成功.
porn image
在浏览器上输入ut102:18088,可以检查Yarn的运行情况

porn image
porn image
整个安装过程就在这里结束了.

发表评论

表情:
评论列表 (有 0 条评论,420人围观)

还没有评论,来说两句吧...

相关阅读

    相关 springcloud

    开发工具:IDEA JDK1.8 sprngcloud微服务的架构基础 :生产者(client),消费者(client),注册中心/配置中心(server) 首先我们创建