# 命令行工具 (CLI) hfai命令行工具(hfai cli)是远程连接幻方萤火集群进行操作的终端工具,其中包括便捷的调试接口、提交/查看任务的接口、任务操作/查看任务输出的接口等,键入 `hfai --help` 即可查看所有支持的功能。 ```shell Usage: hfai COMMAND ... [OPTIONS] Options: --version Show the version and exit. -h, --help Show this message and exit. Exec Commands: bash 在集群上运行 bash 脚本 exec 在集群上运行 二进制 文件 python 在集群上运行 bash 脚本 run 根据 yaml 文件来运行一个任务,可以通过参数来覆盖配置;... Task Manage Cmds: describe 打印任务的 schema yaml,可以在下次创建任务的时候使用 hfai... list 列出用户任务列表, 用户要查看第几页的任务列表 logs 查看任务日志 ssh 登录到哪台机器,只能在开发容器内使用 status 查询任务状态 stop 关闭任务状态 Cluster Commands: monitor 获取当前任务列表相关信息 nodes 查看节点信息 prof 对正在运行中的任务进行 profile validate 检查节点正常情况 User Commands: init 初始化用户账户 whoami 显示用户的个人信息, 包括集群用量、quota 等 UGC Commands: images 用户自定义镜像的管理接口 haienv 创建、查询、删除虚拟环境 haiworkspace 构造工作区,把本地代码推送到萤火二号上跑 ``` 本文给出常见场景下的用法示例。 ## 用例1: 准备用户个人运行环境 ### 场景 用户开始使用幻方萤火平台,需要在本地机器中搭建个人运行环境。 ### 说明 使用 hfai 需要按用户初始化本地配置,支持用户创建个人虚拟环境,并且支持环境上传,确保本地和集群上环境一致。 **注意**:**目前仅支持 bash**, 如果要使用其它 shell,需要手动修改 venv 环境下的 activate 脚本。 ### 步骤 1. 首次使用,执行 [`hfai init --venv_path `](../cli/user.html#hfai-init) 命令初始化 hfai 客户端配置,虚拟环境安装在 `` 下。初始化过程会生成配置文件`~/.hfai/conf.yaml`。已执行过则无需重复操作。 2. 进入 [Studio 开发容器](https://studio.yinghuo.high-flyer.cn/#/container),使用 [`haienv`](../cli/ugc.html#hfai-venv) 创建和管理个人环境: ```shell haienv create # 创建虚拟环境 source haienv # 进入此虚拟环境 pip install # 在此虚拟环境下安装依赖包 conda install # 在此虚拟环境下安装依赖包 ``` **注意**:幻方萤火[提供了默认的机器学习环境](../start/hfai_intro.html#id8),集成了常用的机器学习依赖,虚拟环境是对默认环境的扩展和自定义。在默认环境满足的情况下可以不用创建虚拟环境。 3. 使用虚拟环境,有如下两种方式: + 开发容器中激活环境: ```shell source haienv ``` + 任务提交指定环境: ```shell HF_ENV_NAME= hfai python sample.py -- -n 1 --name test_myenv ``` ### 示例 ```shell # 创建个人虚拟环境 haienv create extenv ## 在基础环境上扩展,相同包可以覆盖基础环境里的版本 # 输出 #确认您要构建的虚拟环境版本为:3.8.10;扩展py38-202111环境 #Y/N: Y #Collecting package metadata (current_repodata.json): ...working... done #Solving environment: ...working... failed with repodata from current_repodata.json, will retry #with next repodata source. #Collecting package metadata (repodata.json): ...working... done #Solving environment: ...working... done #...... #... #... #... #Preparing transaction: ...working... done #Verifying transaction: ...working... done #Executing transaction: ...working... done #创建虚拟环境成功,使用 source hfai_env extenv 进入 haienv list ## 列表查看虚拟环境 +-----------+-----------------------------------------+--------+-------------+--------+ | venv_name | path | extend | extend_env | py | +===========+=========================================+========+=============+========+ | extenv | /hf_shared/hfai_envs/user/extenv_0 | True | py38-202111 | 3.8.10 | +-----------+-----------------------------------------+--------+-------------+--------+ haienv remove extenv ## 删除虚拟环境 ``` ## 用例2: 本地开发同步到集群 ### 场景 在用户本地环境进行模型开发调试,并将工作区同步到集群,在完成本地开发后即可提交到集群运行。 ### 说明 工作区是保存用户代码、配置文件、模型等文件的路径,使用hfai管理和同步工作区,可以让用户在本地和集群侧以相同的方式调试运行。另外,**请避免将大数据集文件放入工作区同步**。 ### 步骤 1. 初始化本地工作区,执行 [`haiworkspace init`](../cli/ugc.html#hfai-workspace-init) 会将当前目录初始化为工作区,生成相关配置文件(`.hfai/workspace.yml`)。初始化后,后续的工作区操作都在此路径下。 2. 在本地工作区进行模型开发,可以随时执行 [`haiworkspace push`](../cli/ugc.html#hfai-workspace-push) 同步本地工作区到集群。 haiworkspace 还提供下载、列举、比较工作区等功能,详见[api文档](../cli/ugc.rst)。 **注意**: - 如本地与集群代码有差异,请检查后再同步,可增加 `--force` 参数来强制覆盖 - 可在工作区根目录定义 `.hfignore` 文件,声明可忽略文件,语法规则为: ``` * 匹配所有字符 ? 匹配任意单个字符 [seq] 匹配seq中的任意单个字符 [!seq] 匹配任意不在seq中的单个字符 不支持转义,即 \\[ \\? 等不会被解析 末尾带 / 匹配目录下的所有内容,不包括目录本身 末尾不带 / 则匹配同名文件、同名目录和目录下的所有内容 pattern按行优先, 在冲突情况下, 以前面的pattern为准 示例: test?.py 匹配 testn.py test*.py 匹配 testabc.py test[0-5].py 匹配 test1.py, 不匹配 test6.py test[!0-5].py 匹配 test6.py, 不匹配 test1.py test 匹配 任意目录下 test 文件或 任意名为 test 的子目录及 test/ 目录下所有文件 test/ 匹配 任意名为 test 的子目录下所有文件 ``` - 如未指定 `.hfignore` 文件,系统将默认为: ``` # ide generated config .vscode .idea # git .git .gitignore .gitattributes # python generated __pycache__ *.py[cod] *$py.class # python package eggs/ ".eggs/" *.egg-info/ *.egg wheels/ share/python-wheels/ ``` 3. 使用 [`hfai python`](../cli/task.html#hfai-python) 运行代码,可以选择本地、集群、模拟三种模式: ```shell hfai python # 本地运行,等同于运行 python xxx hfai python -- [CLUSTER_OPTIONS] # 提交到集群作为新建任务运行,提交前请先检查工作区是否同步;集群任务参数详见api文档 hfai python ++ [SIMULATE_OPTIONS] # 在本地运行,模拟集群任务响应 ``` ### 示例 训练代码如下: ```python # training.py import sys import time import hfai from argparse import ArgumentParser def train(): i = 0 print("训练开始...") print("当前 whole_life_state:", hfai.client.get_whole_life_state()) while True: i += 1 print(f'第{i}次打印日志') time.sleep(1) if hfai.client.receive_suspend_command(): print('收到打断信号') time.sleep(1) hfai.client.go_suspend() time.sleep(1) exit(0) if __name__ == '__main__': parser = ArgumentParser('hfai_view') parser.add_argument('--arg1', default='arg1_default', help='输入参数1') parser.add_argument('--arg2', default='arg2_default', help='输入参数2') parser.add_argument('--arg3', default='arg3_default', help='输入参数3') options, _ = parser.parse_known_args() print('arg1: ', options.arg1) print('arg2: ', options.arg2) print('arg3: ', options.arg3) train() ``` 执行 python 脚本 ```shell python training.py --arg1 arg1_input # 输出 " arg1: arg1_input arg2: arg2_default arg3: arg3_default 训练开始... 当前 whole_life_state: 0 第1次打印日志 第2次打印日志 第3次打印日志 ... " ``` 而改用 hfai 执行 python 脚本,只需要在之前加上 hfai 即可。下面首先使用 `++` 做任务模拟 ```shell # 为训练添加模拟打断、模拟 whole_life_state hfai python training.py --arg1 arg1_input ++ --suspend_seconds 1 --life_state 3 # 输出 " 初始化模拟环境 hfai environ, 请在代码中实现并且使用: HFAI_SIMULATE=1,WORLD_SIZE=1,RANK=0,MASTER_IP=127.0.0.1,MASTER_PORT=29510 设置了 模拟打断时间 ,训练将在 2 秒之后打断 以下设置了任务的属性 设置了 whole_life_state 为 [3] hfai python 模拟运行 HFAI_SIMULATE=1 WORLD_SIZE=1 RANK=0 MASTER_IP=127.0.0.1 MASTER_PORT=29510 SIMULATE_SUSPEND=2 MARSV2_WHOLE_LIFE_STATE=3 python training.py --arg1 arg1_input arg1: arg1_input arg2: arg2_default arg3: arg3_default 训练开始 当前 whole_life_state: 3 第1次打印日志 第2次打印日志 时间到了,触发模拟打断 收到打断信号 模拟打断成功,将退出进程 " ``` 调试通过后,可以直接添加参数进行任务提交。 ```shell HF_ENV_NAME=py38-202111 hfai python training.py --arg1 arg1_input -- --nodes 1 # 输出 " ==================== experiment ==================== +--------+-------------+-------+--------------+---------------+---------------------+ | id | nb_name | nodes | chain_status | suspend_count | updated_at | +========+=============+=======+==============+===============+=====================+ | 396347 | training.py | 1 | waiting_init | 0 | 2021-09-22 14:14:15 | +--------+-------------+-------+--------------+---------------+---------------------+ 任务创建完成,请等待调度,可以使用以下接口查询 hfai status training.py # 查看任务状态 hfai logs -f training.py # 查看任务日志 hfai stop -f training.py # 关闭任务日志 ==================== experiment ==================== +--------+-------------+-------+--------------+---------------+---------------------+ | id | nb_name | nodes | chain_status | suspend_count | updated_at | +========+=============+=======+==============+===============+=====================+ | 396347 | training.py | 1 | waiting_init | 0 | 2021-09-22 14:14:15 | +--------+-------------+-------+--------------+---------------+---------------------+ ==================== jobs ==================== +------+--------+------+------------+ | rank | status | node | started_at | +======+========+======+============+ +------+--------+------+------------+ ==================== fetching log on rank 0... ==================== [2021-09-22 14:14:22.283552] [训练前检查] 检查[MARSV2] cpu memory 6.0 < 100G and total gpu memory 0 < 100M 通过 [2021-09-22 14:14:22.347627] [sampleuser train training.py on MARSV2 at workspace /ceph-jd/pub/jupyter/sampleuser/notebooks by cmd python3 -u training.py --arg1 arg1_input ] [2021-09-22 14:14:23.694883] arg1: arg1_input [2021-09-22 14:14:23.695114] arg2: arg2_default [2021-09-22 14:14:23.695148] arg3: arg3_default [2021-09-22 14:14:23.695192] 训练开始 [2021-09-22 14:14:23.695229] 当前 whole_life_state: 0 [2021-09-22 14:14:23.695263] 第1次打印日志 [2021-09-22 14:14:24.695963] 第2次打印日志 [2021-09-22 14:14:25.697035] 第3次打印日志 ... " ``` **注意**:**同名的任务只允许有一个处于提交/运行态**,即提交任务时,需要之前的同名任务均已运行结束。 ## 用例3: 训练任务管理 ### 场景 用户提交、查看、管理个人在集群上的任务。 ### 说明 由于集群以[分时调度](schedule.md)的方式分配资源,每个任务实际上都是一个任务链(chain)。任务的 `chain_status` 有如下可能: 1. `waiting_init`: 该任务处于排队状态,尚未被调度到; 1. `running`: 该任务处于运行状态; 1. `suspended`: 该任务被调度器打断了,处于挂起状态; 1. `finished`: 该任务执行结束了。 另外,任务信息还包含运行节点信息,节点的状态有如下可能: 1. `created`: 该任务节点处于创建过程中; 1. `building`: 该任务节点处于初始化过程中; 1. `unschedulable`: 该任务节点在等待资源施放; 1. `running`: 该任务节点处于运行状态; 1. `succeeded_terminating` / `failed_terminating` / `stopped_terminating`: 该任务节点处于结束态(正在退出过程中),`_` 之前的描述词为其终态; 1. `succeeded` / `failed` / `stopped`: 该任务节点已经完全退出。 ### 步骤 1. 执行 [`hfai run`](../cli/task.html#hfai-run) 通过提交yaml文件来运行一个任务,支持运行python文件或shell脚本。yaml格式[参考API说明](../api/client.html#hfai.client.create_experiment_v2)。 执行 ```shell hfai run /path/to/yaml_file ``` 2. 使用 [`hfai list`](../cli/task.html#hfai-list), [`hfai status`](../cli/task.html#hfai-status), [`hfai logs`](../cli/task.html#hfai-logs) 等查看任务状态、日志等。 3. 对于运行中或者等待中的任务,可以执行 [`hfai stop`](../cli/task.html#hfai-stop) 发起停止。用户停止的任务不再进入调度。 ### 示例 通过 `hfai status ` 查看任务的状态 ```shell # 未特殊指明, 均使用 experiment_name hfai status sample_exp # 输出 ==================== experiment ==================== +--------+------------+-------+--------------+---------------+---------------------+ | id | nb_name | nodes | chain_status | suspend_count | updated_at | +========+============+=======+==============+===============+=====================+ | 397246 | sample_exp | 1 | finished | 0 | 2021-09-23 11:04:20 | +--------+------------+-------+--------------+---------------+---------------------+ ==================== jobs ==================== +------+---------+-------------+---------------------+ | rank | status | node | started_at | +======+=========+=============+=====================+ | 0 | stopped | hfai-rank-0 | 2021-09-23T10:25:26 | +------+---------+-------------+---------------------+ # 加 --json 参数可以将任务转换成 json 格式输出 hfai status sample_exp --json ``` 通过 `hfai list` 功能查看个人历史任务。该接口带有分页功能,其中页大小(page_size)不能超过50。 ```shell hfai list [--page=] [--page_size=] # 可以通过 --page 和 --page_size 参数来拿到指定范围的任务 # 获取第7-8个任务 hfai list --page 4 --page_size 2 # 输出 现在查看的是第 4 页任务,共 5 页, 每页 2 个任务, 共 9 个任务 +--------+------------+-------+--------------+---------------+---------------------+ | id | nb_name | nodes | chain_status | suspend_count | updated_at | +========+============+=======+==============+===============+=====================+ | 396391 | sample_exp | 2 | finished | 0 | 2021-09-22 15:29:13 | | 396388 | sample_exp | 1 | finished | 0 | 2021-09-22 14:31:16 | +--------+------------+-------+--------------+---------------+---------------------+ ``` 通过 `hfai logs` 查看任务日志。输出由“任务信息 + 任务日志”两部分构成。前半部分与 `hfai status` 相同,后半部分为用户任务输出的日志,在每条日志之前,会打印这条日志的时间戳。 ```shell # 持续打印 sample_exp rank 1 的日志:(rank 从 0 开始) hfai logs -f sample_exp --rank 0 # 加上 -f 参数后,会持续追加打印日志,并且 tab 的自动补全只会补全运行中的任务 # 另外,大部分 hfai 命令均有 tab 自动补全的功能 # 为 experiment_name 时,会选择同名任务中最后一个,如果想查看历史任务的 log,需要使用 experiment_id # 输出 ==================== experiment ==================== +---------+----- ------+-------+--------------+---------------+---------------------+ | id | nb_name | nodes | chain_status | suspend_count | created_at | +=========+============+=======+==============+===============+=====================+ | 396391 | sample_exp | 2 | finished | 0 | 2021-09-22 15:34:45 | +---------+-------- ---+-------+--------------+---------------+---------------------+ ==================== jobs ==================== +------+---------+-------------+---------------------+ | rank | status | node | started_at | +======+=========+=============+=====================+ | 0 | failed | hfai-rank-0 | 2021-09-22T15:34:45 | | 1 | stopped | hfai-rank-1 | 2021-09-22T15:34:45 | +------+---------+-------------+---------------------+ ==================== fetching log on rank 0... ==================== [2021-09-22 15:34:53.282729] [训练前检查] 检查[MARSV2] cpu memory 24.0 < 100G and total gpu memory 0 < 100M 通过 ... ```