huanayun
hengtianyun
vps567
莱卡云

[Linux操作系统]Ubuntu 下 Hadoop 配置详解|ubuntu中hadoop配置环境变量,Ubuntu Hadoop 配置

PikPak

推荐阅读:

[AI-人工智能]免翻墙的AI利器:樱桃茶·智域GPT,让你轻松使用ChatGPT和Midjourney - 免费AIGC工具 - 拼车/合租账号 八折优惠码: AIGCJOEDISCOUNT2024

[AI-人工智能]银河录像局: 国内可靠的AI工具与流媒体的合租平台 高效省钱、现号秒发、翻车赔偿、无限续费|95折优惠码: AIGCJOE

[AI-人工智能]免梯免翻墙-ChatGPT拼车站月卡 | 可用GPT4/GPT4o/o1-preview | 会话隔离 | 全网最低价独享体验ChatGPT/Claude会员服务

[AI-人工智能]边界AICHAT - 超级永久终身会员激活 史诗级神器,口碑炸裂!300万人都在用的AI平台

本文详细介绍了在Ubuntu操作系统下配置Hadoop步骤,主要包括设置Hadoop环境变量,以及进行相应的Hadoop配置,以实现高效的大数据处理功能。

本文目录导读:

  1. 环境准备
  2. 下载和配置 Hadoop
  3. 验证 Hadoop 配置

随着大数据技术的普及,Hadoop 作为一款开源的分布式计算框架,受到了越来越多开发者的关注,本文将详细介绍如何在 Ubuntu 系统下配置 Hadoop,帮助读者快速上手。

环境准备

1、安装 Java

Hadoop 是基于 Java 开发的,因此需要安装 Java 环境,可以使用以下命令安装 OpenJDK:

sudo apt-get install openjdk-8-jdk

2、配置 Java 环境变量

编辑/etc/profile 文件,添加以下内容:

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

执行source /etc/profile 命令使环境变量生效。

3、安装 SSH

Hadoop 需要使用 SSH 进行节点间的通信,因此需要安装 SSH 服务:

sudo apt-get install ssh

4、配置 SSH 无密码登录

生成 SSH 密钥对:

ssh-keygen -t rsa -P ''

将公钥复制到本机的~/.ssh/authorized_keys 文件中:

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

设置~/.ssh/authorized_keys 文件的权限为 600:

chmod 600 ~/.ssh/authorized_keys

下载和配置 Hadoop

1、下载 Hadoop

可以从 Hadoop 官网下载最新版本的 Hadoop,这里以 hadoop-3.2.1 为例:

wget https://archive.apache.org/dist/hadoop/3.2.1/hadoop-3.2.1.tar.gz

2、解压 Hadoop

解压下载的 Hadoop 压缩包:

tar -zxvf hadoop-3.2.1.tar.gz

3、配置 Hadoop

将 Hadoop 解压后的目录移动到/usr/local/ 目录下,并创建一个符号链接:

sudo mv hadoop-3.2.1 /usr/local/hadoop
sudo ln -s /usr/local/hadoop /usr/local/hadoop-3.2.1

编辑/etc/profile 文件,添加以下内容:

export HADOOP_HOME=/usr/local/hadoop-3.2.1
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

执行source /etc/profile 命令使环境变量生效。

4、配置 Hadoop 文件

(1)配置hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/usr/local/hadoop-3.2.1/hdfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/usr/local/hadoop-3.2.1/hdfs/data</value>
    </property>
</configuration>

(2)配置yarn-site.xml

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

(3)配置mapred-site.xml

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

(4)配置hadoop-env.sh

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64

5、格式化 HDFS

hdfs namenode -format

6、启动 Hadoop

start-dfs.sh
start-yarn.sh

验证 Hadoop 配置

1、查看进程

jps

可以看到 NameNode、DataNode、NodeManager 等进程。

2、查看文件系统

hdfs dfs -ls /

可以看到 HDFS 的根目录。

3、运行 WordCount 程序

hadoop jar /usr/local/hadoop-3.2.1/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar wordcount /input /output

等待程序运行完成后,查看输出结果:

hdfs dfs -cat /output/part-r-00000

至此,Ubuntu 下 Hadoop 配置完成。

关键词:Ubuntu, Hadoop, 配置, Java, SSH, HDFS, YARN, MapReduce, 格式化, 启动, 验证, 进程, 文件系统, WordCount, 输出结果, 环境变量, 密钥对, 无密码登录, 压缩包, 解压, 移动, 符号链接, 配置文件, 格式化命令, 启动命令, 查看命令, 运行程序, 输出文件, 分布式计算框架, 大数据技术

bwg Vultr justhost.asia racknerd hostkvm pesyun Pawns


本文标签属性:

Ubuntu Hadoop 配置:ubuntu hadoop环境搭建

原文链接:,转发请注明来源!