目前深度学习模型参数可分为两类:模型参数 (Model Parameters) 与 超参数 (Hyper Parameters),前者是模型通过大量的样本数据进行训练学习得到的参数数据;后者则需要通过人工经验或者不断尝试找到最佳设置(如学习率、dropout_rate、batch_size等),以提高模型训练的效果。如果想得到一个效果好的深度学习神经网络模型,超参的设置非常关键。因为模型参数空间大,目前超参调整都是通过手动,依赖人工经验或者不断尝试,且不同模型、样本数据和场景下不尽相同,所以需要大量尝试,时间成本和资源成本非常浪费。PaddleHub AutoDL Finetuner可以实现自动调整超参数。
PaddleHub AutoDL Finetuner提供两种超参优化算法:
HAZero: 核心思想是通过对正态分布中协方差矩阵的调整来处理变量之间的依赖关系和scaling。算法基本可以分成以下三步:
采样产生新解;
计算目标函数值;
更新正态分布参数;
调整参数的基本思路为,调整参数使得产生更优解的概率逐渐增大。优化过程如下图:
PaddleHub AutoDL Finetuner为了评估搜索的超参对于任务的效果,提供两种超参评估策略:
Full-Trail: 给定一组超参,利用这组超参从头开始Fine-tune一个新模型,之后在验证集评估这个模型;
Population-Based: 给定一组超参,若这组超参是第一轮尝试的超参组合,则从头开始Fine-tune一个新模型;否则基于前几轮已保存的较好模型,在当前的超参数组合下继续Fine-tune并评估;
使用PaddleHub AutoDL Finetuner需要准备两个指定格式的文件:待优化的超参数信息yaml文件hparam.yaml和需要Fine-tune的python脚本train.py。
hparam给出待搜索的超参名字、类型(int或者float)、搜索范围等信息,通过这些信息构建了一个超参空间,PaddleHub将在这个空间内进行超参数的搜索,将搜索到的超参传入train.py获得评估效果,根据评估效果自动调整超参搜索方向,直到满足搜索次数。
NOTE:
param_list:
- name : hparam1
init_value : 0.001
type : float
lower_than : 0.05
greater_than : 0.00005
...
超参名字可以任意指定,PaddleHub会将搜索到的值以指定名称传递给train.py使用;
优化超参策略选择HAZero时,需要提供两个以上的待优化超参;
train.py用于接受PaddleHub搜索到的超参进行一次优化过程,将优化后的效果返回。
NOTE:
train.py的选项参数须包含待优化超参数,需要将超参以argparser的方式写在其中,待搜索超参数选项名字和yaml文件中的超参数名字保持一致。
train.py须包含选项参数saved_params_dir,优化后的参数将会保存到该路径下。
超参评估策略选择PopulationBased时,train.py须包含选项参数model_path,自动从model_path指定的路径恢复模型
train.py须反馈模型的评价效果(建议使用验证集或者测试集上的评价效果),通过调用report_final_result
接口反馈,如
hub.report_final_result(eval_avg_score["acc"])
输出的评价效果取值范围应为(-∞, 1]
,取值越高,表示效果越好。
PaddleHub AutoDL Finetuner超参优化--NLP情感分类任务。
PaddleHub AutoDL Finetuner超参优化--CV图像分类任务。
确认安装PaddleHub版本在1.3.0以上, 同时PaddleHub AutoDL Finetuner功能要求至少有一张GPU显卡可用。
通过以下命令方式:
$ OUTPUT=result/
$ hub autofinetune train.py --param_file=hparam.yaml --gpu=0,1 --popsize=5 --round=10
--output_dir=${OUTPUT} --evaluator=fulltrail --tuning_strategy=pshe2
其中,选项
--param_file
: 必填,待优化的超参数信息yaml文件,即上述hparam.yaml;
--gpu
: 必填,设置运行程序的可用GPU卡号,中间以逗号隔开,不能有空格;
--popsize
: 可选,设置程序运行每轮产生的超参组合数,默认为5;
--round
: 可选,设置程序运行的轮数,默认为10;
--output_dir
: 可选,设置程序运行输出结果存放目录,不指定该选项参数时,在当前运行路径下生成存放程序运行输出信息的文件夹;
--evaluator
: 可选,设置自动优化超参的评价效果方式,可选fulltrail和populationbased, 默认为populationbased;
--tuning_strategy
: 可选,设置自动优化超参算法,可选hazero和pshe2,默认为pshe2;
NOTE:
进行超参搜索时,一共会进行n轮(--round指定),每轮产生m组超参(--popsize指定)进行搜索。上一轮的优化结果决定下一轮超参数调整方向;
当指定GPU数量不足以同时跑一轮时,AutoDL Finetuner功能自动实现排队为了提高GPU利用率,建议卡数为刚好可以被popsize整除。如popsize=6,gpu=0,1,2,3,则每搜索一轮,AutoDL Finetuner自动起四个进程训练,所以第5/6组超参组合需要排队一次,在搜索第5/6两组超参时,会存在两张卡出现空闲等待的情况,如果设置为3张可用的卡,则可以避免这种情况的出现;
进行自动超参搜索时,PaddleHub会生成以下目录
./output_dir/
├── log_file.txt
├── best_model
├── visualization
├── round0
├── round1
├── ...
└── roundn
├── log-0.info
├── log-1.info
├── ...
├── log-m.info
├── model-0
├── model-1
├── ...
└── model-m
其中output_dir为启动autofinetune命令时指定的根目录,目录下:
log_file.txt记录每一轮搜索所有的超参以及整个过程中所搜索到的最优超参;
best_model保存整个搜索训练过程中得到的最优的模型参数;
visualization记录可视化过程的日志文件;
round0 ~ roundn记录每一轮的数据,在每个round目录下,还存在以下文件;
log-0.info ~ log-m.info记录每个搜索方向的日志;
model-0 ~ model-m记录对应搜索的参数;
AutoDL Finetuner API在优化超参过程中会自动对关键训练指标进行打点,启动程序后执行下面命令。
$ visualdl --logdir ${OUTPUT}/visualization --host ${HOST_IP} --port ${PORT_NUM}
其中${OUTPUT}为AutoDL Finetuner输出目录,${HOST_IP}为本机IP地址,${PORT_NUM}为可用端口号,如本机IP地址为192.168.0.1,端口号8040, 用浏览器打开192.168.0.1:8040,即可看到搜索过程中各超参以及指标的变化情况。
PaddleHub AutoDL Finetuner 支持将train.py中的args其余不需要搜索的参数通过autofinetune remainder方式传入。这个不需要搜索的选项参数名称应该和通过hub autofinetune的传入选项参数名称保持一致。如PaddleHub AutoDL Finetuner超参优化--NLP情感分类任务示例中的max_seq_len选项,可以参照以下方式传入。
$ OUTPUT=result/
$ hub autofinetune train.py --param_file=hparam.yaml --gpu=0,1 --popsize=5 --round=10
--output_dir=${OUTPUT} --evaluator=fulltrail --tuning_strategy=pshe2 max_seq_len 128
WARNING:Program which was ran with hyperparameters as ... was crashed!
首先根据终端上的输出信息,确定这个输出信息是在第几个round(如round 3),之后查看${OUTPUT}/round3/下的日志文件信息log.info, 查看具体出错原因。
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。