• 首页 首页 icon
  • 工具库 工具库 icon
    • IP查询 IP查询 icon
  • 内容库 内容库 icon
    • 快讯库 快讯库 icon
    • 精品库 精品库 icon
    • 问答库 问答库 icon
  • 更多 更多 icon
    • 服务条款 服务条款 icon

Hadoop伪分布式配置教程

武飞扬头像
PYY-CR7
帮助1

目录

一、创建Hadoop用户

1.创建Hadoop用户

2.更换用户

二、更新Apt,安装SSH,配置SSH无密码登录

1.更新Apt

2.安装SSH 

3.配置SSH无密码登陆

三、安装Java环境

四、安装 Hadoop 

1.下载Hadoop

2.安装Hadoop

五、Hadoop单机配置(非分布式)

六、Hadoop伪分布式配置

七、运行Hadoop伪分布式实例


一、创建Hadoop用户

1.创建Hadoop用户

输入如下命令创建新用户 :

sudo useradd -m hadoop -s /bin/bash

这条命令创建了可以登陆的 hadoop 用户,并使用 /bin/bash 作为 shell。

学新通

接着使用如下命令设置密码,可简单设置为 hadoop,按提示输入两次密码:

sudo passwd hadoop

学新通

 可为 hadoop 用户增加管理员权限,方便部署,避免一些对新手来说比较棘手的权限问题:

sudo adduser hadoop sudo

学新通

2.更换用户

关闭终端,注销当前用户,选择Hadoop用户登录

学新通

学新通

二、更新Apt,安装SSH,配置SSH无密码登录

1.更新Apt

用 hadoop 用户登录后,我们先更新一下 apt,后续我们使用 apt 安装软件,如果没更新可能有一些软件安装不了。按 Ctrl Alt T打开终端窗口,执行如下命令:

sudo apt-get update

学新通

2.安装SSH 

安装 SSH server,执行如下命令:

sudo apt-get install openssh-server

输入“Y”,按回车继续安装 

学新通

安装后,可以使用如下命令登陆本机:

ssh localhost

输入“yes”,后输入密码按回车即可学新通学新通学新通

 3.配置SSH无密码登陆

首先输入以下代码:

exit

退出刚才的 ssh localhost

学新通

输入以下代码:

cd ~/.ssh/ 

进入到ssh目录中学新通

输入以下代码:

ssh-keygen -t rsa 

利用ssh-keygen生成密匙

出现提示后,按回车键即可

学新通

输入以下代码:

cat ./id_rsa.pub >> ./authorized_keys

将密钥加入到授权中学新通

此时再用ssh localhost命令,无需输入密码就可以直接登陆了

 ssh localhost

学新通

三、安装Java环境

输入以下代码,安装Openjdk-8-jdk

sudo apt-get install openjdk-8-jdk

输入“Y”,按回车继续安装 

学新通

学新通输入以下代码,查看已安装的Java版本

java -version

 学新通

输入以下代码,配置Java环境文件

gedit ~/.bashrc

在文件最前面添加如下单独一行(注意,等号“=”前后不能有空格),然后保存退出:

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64

学新通

接下来,要让环境变量立即生效,请执行如下代码:

source ~/.bashrc 

 学新通

执行上述命令后,可以检验一下是否设置正确:

  1.  
    echo $JAVA_HOME
  2.  
    java -version
  3.  
    $JAVA_HOME/bin/java -version

学新通

四、安装 Hadoop 

1.下载Hadoop

使用Ubuntu系统内置的Firefix浏览器下载Hadoop-3.2.4

Hadoop下载地址:Index of /apache/hadoop/common/hadoop-3.2.4

学新通

2.安装Hadoop

输入以下代码:(注意C要大写)

sudo tar -zxf ~/下载/hadoop-3.2.4.tar.gz -C /usr/local

将Hadoop解压安装到/usr/local文件夹内

输入以下代码:

  1.  
    cd /usr/local/
  2.  
    sudo mv ./hadoop-3.2.4/ ./hadoop # 将文件夹名改为hadoop
  3.  
    sudo chown -R hadoop ./hadoop

并将文件夹名改为hadoop,和修改文件权限

学新通输入如下命令来检查 Hadoop 是否可用,成功则会显示 Hadoop 版本信息:

  1.  
    cd /usr/local/hadoop
  2.  
    ./bin/hadoop version

 学新通

五、Hadoop单机配置(非分布式)

Grep 例子

将 input 文件夹中的所有文件作为输入,筛选当中符合正则表达式 dfs[a-z.] 的单词并统计出现的次数,最后输出结果到 output 文件夹中

  1.  
    cd /usr/local/hadoop
  2.  
    mkdir ./input
  3.  
    cp ./etc/hadoop/*.xml ./input
  4.  
    ./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar grep ./input ./output 'dfs[a-z.] '
  5.  
    cat ./output/*

学新通 学新通

 学新通

Hadoop 默认不会覆盖结果文件,因此再次运行上面实例会提示出错,需要先将 ./output 删除。

rm -r ./output

六、Hadoop伪分布式配置

Hadoop 的配置文件位于 /usr/local/hadoop/etc/hadoop/ 中,伪分布式需要修改2个配置文件 core-site.xml 和 hdfs-site.xml 。Hadoop的配置文件是 xml 格式,每个配置以声明 property 的 name 和 value 的方式来实现。

修改配置文件 core-site.xml 

  1.  
    cd /usr/local/hadoop
  2.  
    gedit ./etc/hadoop/core-site.xml

修改为以下配置,点击保存后退出:

  1.  
    <configuration>
  2.  
    <property>
  3.  
    <name>hadoop.tmp.dir</name>
  4.  
    <value>file:/usr/local/hadoop/tmp</value>
  5.  
    <description>Abase for other temporary directories.</description>
  6.  
    </property>
  7.  
    <property>
  8.  
    <name>fs.defaultFS</name>
  9.  
    <value>hdfs://localhost:9000</value>
  10.  
    </property>
  11.  
    </configuration>

学新通

修改配置文件 hdfs-site.xml

gedit ./etc/hadoop/hdfs-site.xml

修改为以下配置,点击保存后退出:

  1.  
    <configuration>
  2.  
    <property>
  3.  
    <name>dfs.replication</name>
  4.  
    <value>1</value>
  5.  
    </property>
  6.  
    <property>
  7.  
    <name>dfs.namenode.name.dir</name>
  8.  
    <value>file:/usr/local/hadoop/tmp/dfs/name</value>
  9.  
    </property>
  10.  
    <property>
  11.  
    <name>dfs.datanode.data.dir</name>
  12.  
    <value>file:/usr/local/hadoop/tmp/dfs/data</value>
  13.  
    </property>
  14.  
    </configuration>

学新通

配置完成后,执行 NameNode 的格式化:

./bin/hdfs namenode -format

学新通

接着开启 NameNode 和 DataNode 守护进程

./sbin/start-dfs.sh

学新通

启动完成后,可以通过命令jps来判断是否成功启动

jps

学新通

成功启动后,可以访问 Web 界面 http://localhost:9870 查看 NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件 

学新通

七、运行Hadoop伪分布式实例

要使用 HDFS,首先需要在 HDFS 中创建用户目录:

  1.  
    cd /usr/local/hadoop
  2.  
    ./bin/hdfs dfs -mkdir -p /user/hadoop

学新通

接着将 ./etc/hadoop 中的 xml 文件作为输入文件复制到分布式文件系统中,即将 /usr/local/hadoop/etc/hadoop 复制到分布式文件系统中的 /user/hadoop/input 中

  1.  
    ./bin/hdfs dfs -mkdir input
  2.  
    ./bin/hdfs dfs -put ./etc/hadoop/*.xml input

复制完成后,可以通过如下命令查看文件列表:

./bin/hdfs dfs -ls input

 学新通

将 input 文件夹中的所有文件作为输入,筛选当中符合正则表达式 dfs[a-z.] 的单词并统计出现的次数,最后输出结果到 output 文件夹中

./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar grep input output 'dfs[a-z.] '

学新通

查看运行结果的命令(查看的是位于 HDFS 中的输出结果):

./bin/hdfs dfs -cat output/*

学新通

 将运行结果取回到本地:

  1.  
    rm -r ./output
  2.  
    ./bin/hdfs dfs -get output ./output
  3.  
    cat ./output/*

Hadoop 运行程序时,输出目录不能存在,否则会提示错误

因此若要再次执行,需要执行如下命令删除 output 文件夹:

./bin/hdfs dfs -rm -r output

若要关闭 Hadoop,则运行:

./sbin/stop-dfs.sh

 学新通

参考文章:Hadoop安装教程_单机/伪分布式配置_Hadoop2.6.0(2.7.1)/Ubuntu14.04(16.04)_厦大数据库实验室博客

这篇好文章是转载于:学新通技术网

  • 版权申明: 本站部分内容来自互联网,仅供学习及演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,请提供相关证据及您的身份证明,我们将在收到邮件后48小时内删除。
  • 本站站名: 学新通技术网
  • 本文地址: /boutique/detail/tanhfiebic
系列文章
更多 icon
同类精品
更多 icon
继续加载