登录    关于
马育民老师的博客

马育民的博客

QQ:65242847

hadoop3.x ha 切换回完全分布式

关闭 ha 相关服务

登录 hadoop1,执行下面命令:

stop-dfs.sh

修改环境变量

登录 hadoop1,修改 环境变量: HADOOP_HOME,将 指向 hadoop-3.0.3-ha,修改为原来的 hadoop-3.0.3 ,如下:

# 配置JAVA_HOME
export JAVA_HOME=/program/jdk1.8.0_202
export PATH=${JAVA_HOME}/bin:$PATH

# 配置 HADOOP_HOME
export HADOOP_HOME=/program/hadoop-3.0.3

# export HADOOP_HOME=/program/hadoop-3.0.3-ha

export PATH=${HADOOP_HOME}/bin:$PATH
export PATH=${HADOOP_HOME}/sbin:$PATH

立即生效

source /etc/profile

验证

echo $HADOOP_HOME

显示如下,表示成功:

/program/hadoop-3.0.3

同步到 hadoop2

hadoop1 上执行下面命令:

rsync -av /etc/profile.d/bigdata_env.sh  root@hadoop2:/etc/profile.d/

立即生效

登录 hadoop2,执行下面命令:

source /etc/profile

验证

登录 hadoop2,执行下面命令:

echo $HADOOP_HOME

显示如下,表示成功:

/program/hadoop-3.0.3

同步到 hadoop3

hadoop1 上执行下面命令:

rsync -av /etc/profile.d/bigdata_env.sh  root@hadoop3:/etc/profile.d/

立即生效

登录 hadoop3,执行下面命令:

source /etc/profile

验证

登录 hadoop3,执行下面命令:

echo $HADOOP_HOME

显示如下,表示成功:

/program/hadoop-3.0.3

启动

登录 hadoop1,启动 hdfs:

start-dfs.sh

原文出处:http://malaoshi.top/show_1IX2FveWizYW.html