说明
启动 airflow,需要启动python环境,还要启动2个服务
停止 airflow,需要停止2个服务,退出python环境
比较麻烦,所以编写 .sh
脚本,通过该脚本启动、停止
脚本
注意
注意:不要在 airflow 环境下执行下面命令
注意:不要在 airflow 环境下执行下面命令
注意:不要在 airflow 环境下执行下面命令
创建目录
[root@hadoop3 ~]# mkdir /program/bin
编写脚本
注意:linux和windows换行符不同,所以要在 linux 环境执行下面操作
注意:linux和windows换行符不同,所以要在 linux 环境执行下面操作
注意:linux和windows换行符不同,所以要在 linux 环境执行下面操作
[root@hadoop3 ~]# cd /program/bin
[root@hadoop3 ~]# vim airflow.sh
输入 i
,复制粘贴下面脚本:
#!/bin/bash
case $1 in
"start"){
echo "--------启动airflow-------"
ssh hadoop3 "conda activate airflow;airflow webserver -p 8080 -D;airflow scheduler -D;conda deactivate"
};;
"stop"){
echo "--------关闭airflow-------"
ps -ef|egrep 'scheduler|airflow-webserver'|grep -v grep|awk '{print $2}'|xargs kill -15
};;
esac
授权
[root@hadoop3 ~]# chmod 777 airflow.sh
测试
启动
[root@hadoop3 ~]# ./airflow.sh start
关闭
[root@hadoop3 ~]# ./airflow.sh stop