• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 问答库 问答库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

详细的docker搭建hadoop集群

武飞扬头像
孤独之风。
帮助4

环境:

  1. Ubuntu20
  2. Hadoop 3.1.4
  3. Jdk 1.8_301

搭建主要步骤

  1. 拉取最新版本ubuntu镜像
  2. 利用挂载将jdk,hadoop等安装包通过xftp或者使用命令行scp命令传到挂载目录。
  3. 进入ubuntu镜像容器
  • docker exec -it 容器id /bin/bash
  1. 更新apt-get系统源
  • apt-get update
  • 更新完后可以下载一些必须工具,如vim
  1. 安装sshd
  • 在开启分布式Hadoop时,需要用到ssh连接slave节点
  • apt-get install ssh
  • 然后运行如下脚本即可开启sshd服务器:
    /etc/init.d/ssh start
    这样在开启镜像时,都需要手动开启sshd服务,可以把这条命令写进~/.bashrc文件,保存后每次进入容器会自动启动sshd服务**(这一句一定要放在最后,一定要,不然后面会启动异常!)**
  1. 配置免密登录(这里我试了一下,在容器里使用ssh localhost输入密码会拒绝登录)
  • cd ~/.ssh
  • ssh-keygen -t rsa 一路按回车
  • 最后输入 cat ./id_rsa.pub >> ./authorized_keys
    接下来就可以直接输入ssh localhost登录本机了
  1. 配置jdk,和前面单机版配置一样。
  2. 安装hadoop,将hadoop解压到自己指定的目录
  3. 配置hadoop集群

(1)打开hadoop_env.sh,修改JAVA_HOME学新通
(2)打开core-site.xml,输入

<configuration>
   <property>
      <name>hadoop.tmp.dir</name>
      <value>file:/usr/local/hadoop/tmp</value>
    <description>Abase for other temporary directories.</description>
   </property>
   <property>
      <name>fs.defaultFS</name>
      <value>hdfs://master:9000</value>
   </property>
</configuration>  

(3)打开hdfs-site.xml输入

<configuration>
  <property>
     <name>dfs.namenode.name.dir</name>
     <value>file:/usr/local/hadoop/namenode_dir
      </value>
  </property>
  <property>
     <name>dfs.datanode.data.dir</name>
     <value>file:/usr/local/hadoop/datanode_dir
     </value>
  </property>
  <property>
     <name>dfs.replication</name>
     <value>3</value>
  </property>
</configuration>
学新通

(4)打开mapred-site.xml输入

<configuration>
 <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
 </property>
<property>
  <name>yarn.app.mapreduce.am.env</name>//这里的路径是你安装hadoop的路径
  <value>HADOOP_MAPRED_HOME=/usr/local/hadoop</value>
</property>
<property>
  <name>mapreduce.map.env</name>
  <value>HADOOP_MAPRED_HOME=/usr/local/hadoop</value>
</property>
<property>
  <name>mapreduce.reduce.env</name>
  <value>HADOOP_MAPRED_HOME=/usr/local/hadoop</value>
</property>
</configuration>
学新通

(5)打开yarn-site.xml输入

<configuration>
 <!-- Site specific YARN configuration properties -->
   <property>
      <name>yarn.nodemanager.aux-services</name>
      <value>mapreduce_shuffle</value>
   </property>
   <property>
      <name>yarn.resourcemanager.hostname</name>
      <value>master</value>
   </property>
 </configuration>

配置完后hadoop集群的基本环境已经配置完毕!保存修改后的镜像

docker commit保存镜像 输入docker images可以查看保存镜像。
学新通
配置集群:

我用1个节点作master,3个节点作slave。(博主只是配着好玩,真实环境请搭建单数节点集群),namenode与secondnamenode同一节点。

  1. 分别打开四个终端,每个终端界面运行刚刚修改后的镜像。分别表示Hadoop集群中的master,s01、s02和s03
docker run -it -h Master --name Master...

学新通
2. 输入 cat /etc/hosts查看当前容器的ip,如查看master IP为172.17.0.3

学新通
3. 编辑4个容器的hosts,把每一个主机和ip保存进去
学新通

  1. 在master主机输入ssh s01 等测试master能否正常连接slave(这里建议全部ssh一遍,避免后面启动hadoop要输入yes或者报警告)

  2. 到这里,还差最后一个配置就要完成hadoop集群配置了,打开master上的workers文件**(在hadoop安装目录下的etc/hadoop下)**,hadoop2版本这个文件叫做slaves,把原先的默认值localhost删掉,输入三个slave的主机名:s03,s02,s03.
    学新通

  3. 启动集群

在master终端输入start-all.sh启动集群(第一次启动,务必要format一下namenode,后面再启动就不需要format了)

格式化namenode

学新通

启动集群

这里直接启动集群可能会报错

学新通

在hadoop-env.sh添加一下内容

学新通

添加后:再次启动集群
学新通

在master节点输入jps

学新通

在slave节点输入jps

学新通

运行hadoop自带的词频统计的例子

学新通

查看结果

学新通

至此,基于docker的hadoop集群搭建成功。搭建过程中有遇到问题的同学,欢迎留言一起讨论!

这篇好文章是转载于:学新通技术网

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 学新通技术网
  • 本文地址: /boutique/detail/tanhfehhbi
系列文章
更多 icon
同类精品
更多 icon
继续加载