• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 问答库 问答库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

Hadoop 、Zookeeper、Spark笔记

武飞扬头像
柒折超贵
帮助1

随手记录一些用到的东西或问题,防止自己忘记或再次遇到

启动顺序

先启动Hadoop 集群,再启动zookeeper,最后启动spark

Hadoop

格式化:跟重装系统一样,只能第一次装好之后才能用这个命令,格式化

hadoop namenode -format

全部启动

# 进入hadoop的sbin目录下
start-all.sh

(base) root@node1:/export/server/hadoop-3.3.4/sbin# start-all.sh 
Starting namenodes on [node1]
Starting datanodes
Starting secondary namenodes [node2]
Starting resourcemanager
Starting nodemanagers

学新通
学新通
学新通

全部停止

(base) root@node1:/export/server# hadoop-3.3.4/sbin/stop-all.sh 
Stopping namenodes on [node1]
Stopping datanodes
Stopping secondary namenodes [node2]
Stopping nodemanagers
Stopping resourcemanager

zookeeper启动

启动命令:
一定要在要启动的几个窗口中同时启动,不然会出错,可以用finalshell的命令发送全部会话的功能

apache-zookeeper-3.7.1-bin/bin/zkServer.sh start

查看状态

# 复制该命令
apache-zookeeper-3.7.1-bin/bin/zkServer.sh status

# 第一台
(base) root@node1:/export/server# apache-zookeeper-3.7.1-bin/bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /export/server/apache-zookeeper-3.7.1-bin/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost. Client SSL: false.
Mode: leader

# 第二台
(base) root@node2:/export/server# apache-zookeeper-3.7.1-bin/bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /export/server/apache-zookeeper-3.7.1-bin/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost. Client SSL: false.
Mode: follower

# 第三台
(base) root@node3:/export/server# apache-zookeeper-3.7.1-bin/bin/zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /export/server/apache-zookeeper-3.7.1-bin/bin/../conf/zoo.cfg
Client port found: 2181. Client address: localhost. Client SSL: false.
Mode: follower

# 一个leader,两个follow

停止命令

apache-zookeeper-3.7.1-bin/bin/zkServer.sh stop

启动Saprk

node1
启动start-all.sh,启动master和所有worker
启动历史服务器 start-history-server.sh

(base) root@node1:/export/server# spark/sbin/start-all.sh 
starting org.apache.spark.deploy.master.Master, logging to /export/server/spark/logs/spark-root-org.apache.spark.deploy.master.Master-1-node1.out
node2: starting org.apache.spark.deploy.worker.Worker, logging to /export/server/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-node2.out
node3: starting org.apache.spark.deploy.worker.Worker, logging to /export/server/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-node3.out
node1: starting org.apache.spark.deploy.worker.Worker, logging to /export/server/spark/logs/spark-root-org.apache.spark.deploy.worker.Worker-1-node1.out

node3: 启动start-master.sh 作为备用master

(base) root@node3:/export/server# spark/sbin/start-master.sh 
starting org.apache.spark.deploy.master.Master, logging to /export/server/spark/logs/spark-root-org.apache.spark.deploy.master.Master-1-node3.out

学新通
学新通
历史服务器:
学新通

涉及到hostname的配置文件

这个只有当其他虚拟机是克隆过去或者是将某一台修改主机名的时候要用到,修改完之后就可以用上面的命令启动对应的集群

宿主机hosts配置文件

如果在宿主机(假设是windows电脑)的浏览器上看master webUI的时候也想输入node1:8080,而不是192.168.x.x:8080,或者虚拟机ip地址发生了改变,那么需要修改宿主机的hosts文件
学新通

学新通

Ubuntu自身配置文件

  1. /etc/hostname
    学新通

  2. /etc/hosts
    学新通

zookeeper配置文件包含主机名

1.安装目录下的这个文件/export/server/apache-zookeeper-3.7.1-bin/conf/zoo.cfg
学新通
2.这个有可能涉及到,上面的server.1一定要和下面的1对应,这个文件位置看当初自己建的位置/export/data/zookeeper/data/myid
学新通

Hadoop

  1. /export/server/hadoop-3.3.4/etc/hadoop/core-site.xml
    学新通
  2. /export/server/hadoop-3.3.4/etc/hadoop/hdfs-site.xml
    学新通
  3. /export/server/hadoop-3.3.4/etc/hadoop/mapred-site.xml
    学新通
  4. /export/server/hadoop-3.3.4/etc/hadoop/yarn-site.xml
    学新通
  5. /export/server/hadoop-3.3.4/etc/hadoop/workers
    学新通

Spark配置文件包含主机名

  1. /export/server/spark/conf/workers学新通
  2. /export/server/spark/conf/spark-env.sh
    学新通
    3./export/server/spark/conf/spark-defaults.conf
    学新通

这篇好文章是转载于:学新通技术网

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 学新通技术网
  • 本文地址: /boutique/detail/tanhggigib
系列文章
更多 icon
同类精品
更多 icon
继续加载