Airflow - 编写启动脚本、停止脚本 作者:马育民 • 2023-04-09 19:15 • 阅读:10297 # 说明 启动 airflow,需要启动python环境,还要启动2个服务 停止 airflow,需要停止2个服务,退出python环境 比较麻烦,所以编写 `.sh` 脚本,通过该脚本启动、停止 # 脚本 ### 注意 **注意:**不要在 airflow 环境下执行下面命令 **注意:**不要在 airflow 环境下执行下面命令 **注意:**不要在 airflow 环境下执行下面命令 ### 创建目录 ``` [root@hadoop3 ~]# mkdir /program/bin ``` # 编写脚本 **注意:**linux和windows换行符不同,所以要在 linux 环境执行下面操作 **注意:**linux和windows换行符不同,所以要在 linux 环境执行下面操作 **注意:**linux和windows换行符不同,所以要在 linux 环境执行下面操作 ``` [root@hadoop3 ~]# cd /program/bin ``` ``` [root@hadoop3 ~]# vim airflow.sh ``` 输入 `i`,复制粘贴下面脚本: ``` #!/bin/bash case $1 in "start"){ echo "--------启动airflow-------" ssh hadoop3 "conda activate airflow;airflow webserver -p 8080 -D;airflow scheduler -D;conda deactivate" };; "stop"){ echo "--------关闭airflow-------" ps -ef|egrep 'scheduler|airflow-webserver'|grep -v grep|awk '{print $2}'|xargs kill -15 };; esac ``` ### 授权 ``` [root@hadoop3 ~]# chmod 777 airflow.sh ``` # 测试 ### 启动 ``` [root@hadoop3 ~]# ./airflow.sh start ``` ### 关闭 ``` [root@hadoop3 ~]# ./airflow.sh stop ``` 原文出处:https://malaoshi.top/show_1IX5Htac4279.html